hadoop中的两个datanode节点的VERSION文件冲突,导致其中有一个datanode无法启动

hadoop中的两个datanode节点的VERSION文件冲突,导致其中有一个datanode无法启动,第1张

hadoop中的两个datanode节点的VERSION文件冲突,导致其中有一个datanode无法启动 问题

 

 分析

 

 本来是有三个datanode才对,所以有一个datanode丢失,查看丢失的datanode的log日志

 

第一个报错:是datanode无法启动的报错日志

第二个报错:是因为datanode丢失,数据无法上传的报错

很奇怪的是,hadoop集群管理页面的live node为2,但是dead node节点为0,也就是没有节点死亡 ,按道理如果有一个datanode启动失败,那么Dead node 应该为1才对,那么出现这种问题恒可能是有两个datanode节点的current目录下了VERSION文件相同,导致出现冲突,因此hadoop集群只选择其中的一个启动

 解决办法

将VERSION文件storageID和datanodeUuid修改成不同就行,所以修改storageID、datanodeUuid,这里就修改了hadoop103的,storageID,datanodeUuid随便改几个数字即可。重启hadoop

 

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/4008133.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-10-22
下一篇 2022-10-22

发表评论

登录后才能评论

评论列表(0条)

保存