Hadoop启动及验证
完成前面两篇的所有安装和配置后,本篇将介绍如何启动以及验证Hadoop的安装效果~
1)格式化HDFS文件系统
在master节点所在主机(笔者的主机是:)上使用用户hadoop进行操作(下面的操作都以用户hadoop进行)[hadoop@www~]$hadoop namenode -format输入上述初始化命令后,,得到如下结果图(笔者初始化的时候忘截图了,从这里找了张)
(有警告没关系,网上有解决办法)
这里要注意下,格式化以后,在master中/usr/hadoop/tmp中生成如下文件夹:
在slave节点中/usr/hadoop/tmp中生成如下文件夹:
如果你发现,你master节点主机没有出现dfs这个文件夹,而slave中却出现了dfs、mapred这两个。这是有问题的,会影响后面的操作!解决方法:
①改正错误(我的错误是:/usr/hadoop/tmp这个文件夹的权限,我没改)
②删除slave节点主机上/usr/hadoop/tmp下的文件后,重新格式化HDFS文件系统
2)启动Hadoop
service iptables stop为了避免麻烦,提前关闭集群内所有主机的防火墙。
启动命令和执行结果如下:
自己注意下启动顺序……
3)验证Hadoop
(1)验证方法一:
Master上用java自带的小工具jps查看进程。
Slave上
(1)验证方法二:
hadoop dfsadmin -report
4)网页查看集群
游览器输入192.168.1.211:50030(我master节点所在主机地址)
192.168.1.211:50070
下一篇:Hello World(Hadoop版)
并且为之实践了关怀和付出的善举。对于我性情中的易感和怨薄,