现在可以开始启动了!
启动顺序上,我还是选择单步启动:
启动HDFS
#sbin/start-dfs.sh
zh6: starting namenodes
zh9: starting datanode
zh10: starting datanode
zh8: starting secondarynamenode
启动yarn
#sbin/start-yarn.sh
检查各个节点对应的Java进程是否都已经启动:
zh6#jps
id NameNode
zh8#jps
id SecondaryNameNode
zh9#jps
id DataNode
zh10#jps
id DataNode
检查各个节点目录下的日志文件,如果没有出现任何的报错,那么恭喜你配置成功了。如果有错误,可以再根据错误信息,再调整配置文件重新启动。
如果已经配置成功了,那么可以使用浏览器访问管理界面了。
HDFS:http://zh6:50070
YARN:http://zh6:8088
停止的时候,顺序最好反过来,这样保证不会因为有Job还在读取数据就关掉了HDFS,导致Job执行异常。当然最先保证所有Job都已经跑完以后,再按顺序停止。
#sbin/stop-yarn.sh
#sbin/stop-dfs.sh
(责任编辑:管理员)