vivan的专栏

Hadoop启动及验证

完成前面两篇的所有安装和配置后,本篇将介绍如何启动以及验证Hadoop的安装效果~

1)格式化HDFS文件系统

在master节点所在主机(笔者的主机是:)上使用用户hadoop进行操作(下面的操作都以用户hadoop进行)[hadoop@www~]$hadoop namenode -format输入上述初始化命令后,,得到如下结果图(笔者初始化的时候忘截图了,从这里找了张)

(有警告没关系,网上有解决办法)

这里要注意下,格式化以后,在master中/usr/hadoop/tmp中生成如下文件夹:

在slave节点中/usr/hadoop/tmp中生成如下文件夹:

如果你发现,你master节点主机没有出现dfs这个文件夹,而slave中却出现了dfs、mapred这两个。这是有问题的,会影响后面的操作!解决方法:

①改正错误(我的错误是:/usr/hadoop/tmp这个文件夹的权限,我没改)

②删除slave节点主机上/usr/hadoop/tmp下的文件后,重新格式化HDFS文件系统

2)启动Hadoop

service iptables stop为了避免麻烦,提前关闭集群内所有主机的防火墙。

启动命令和执行结果如下:

自己注意下启动顺序……

3)验证Hadoop

(1)验证方法一:

Master上用java自带的小工具jps查看进程。

Slave上

(1)验证方法二:

hadoop dfsadmin -report

4)网页查看集群

游览器输入192.168.1.211:50030(我master节点所在主机地址)

192.168.1.211:50070

下一篇:Hello World(Hadoop版)

并且为之实践了关怀和付出的善举。对于我性情中的易感和怨薄,

vivan的专栏

相关文章:

你感兴趣的文章:

标签云: