【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办
发布时间:2023年12月18日
执行start-dfs.sh后,datenode没有启动,很大一部分原因是因为在第一次格式化dfs后又重新执行了格式化命令(hdfs namenode -format),这时主节点namenode的clusterID会重新生成,而从节点datanode的clusterID 保持不变。
在主节点也就是namenode那个节点上的hdfs-site.xml文件下找到这两个文件路径
打开name目录中current下面的VERSION文件,然后用这个clusterID替换掉datanode节点上的data/current/VERSION里的clusterID
参考http://t.csdnimg.cn/Gk4cg
文章来源:https://blog.csdn.net/m0_60511809/article/details/134899966
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:chenni525@qq.com进行投诉反馈,一经查实,立即删除!