HDFS SSH远程操作指南
HDFS 的 SSH 操作其实蛮实用的,是你想远程管理大数据集群的时候。它不像图形界面那样“傻瓜式”,但命令行的灵活性真是没话说,熟悉了之后效率高得。HDFS 支持一整套的 Shell 命令,什么-ls
、-mkdir
、-copyToLocal
这些都能搞定,而且还能通过 SSH 在不同机器上操作,挺适合那种分布式部署的场景。
命令用起来其实不难,就拿hadoop fs -ls /
来说,直接就能看到 HDFS 根目录下的东西,响应也快,结果也清晰。你还可以用-mkdir -p
一口气建多级目录,省心不少。如果你平时搞数据,HDFS配合SSH简直就是生产环境的好搭档。
而且像-appendToFile
这种追加写操作也挺常用的,尤其是那种日志类的文件,一天一个文件也太多了,追加就显得合适。需要注意的是,HDFS对权限控制也挺讲究,什么-chown
、-chmod
、-chgrp
都有,权限没搞对,有时候你写不了、删不了,烦。
启动集群也顺手,只要两条命令:
sbin/start-dfs.sh
sbin/start-yarn.sh
你就能开始操作了。用 SSH 登上去执行这些命令,真的是方便又不折腾。如果你习惯脚本自动化部署,那更香,写个 Shell 脚本批量搞定一堆操作,爽得。
哦对了,想更深入了解的话,推荐你看看这些文档:
如果你刚开始玩 Hadoop,建议先从常用命令练起,熟了之后再搞自动化脚本、调权限,效率提升是真的。
下载地址
用户评论