目录
一、重新格式化 NameNode
1、删除 hadoop 三台节点配置路径下的残留文件
(1)core-site.xml
删除/usr/local/src/hadoop/tmp目录
(2)hdfs-site.xml
删除/usr/local/src/hadoop/dfs/name目录
(3)hdfs-site.xml
2、手动创建配置文件
4、启动集群后重新格式化
NN 第一次格式化失败后,需要删除格式化失败残留文件,才能重新进行格式化。
我以三台节点格式化失败为案例。
一、重新格式化 NameNode1、删除 hadoop 三台节点配置路径下的残留文件 (1)core-site.xml 删除/usr/local/src/hadoop/tmp目录
rm -rf /usr/local/src/hadoop/tmp # 删除hdfs缓存文件
# hadoop.tmp.dir 配置了 hdfs数据缓存路径(2)hdfs-site.xml 删除/usr/local/src/hadoop/dfs/name目录hadoop.tmp.dir file:/usr/local/src/hadoop/tmp
rm -rf /usr/local/src/hadoop/dfs/name # 删除NN缓存目录
# 配置了NN的缓存路径(3)hdfs-site.xmldfs.namenode.name.dir file:/usr/local/src/hadoop/dfs/name
删除/usr/local/src/hadoop/dfs/data目录
rm -rf /usr/local/src/hadoop/dfs/data # 删除DN缓存目录
# 配置了DN缓存路径2、手动创建配置文件dfs.datanode.data.dir file:/usr/local/src/hadoop/dfs/data
4、启动集群后重新格式化[root@master hadoop]# mkdir -p /usr/local/src/hadoop/dfs/name
[root@master hadoop]# mkdir -p /usr/local/src/hadoop/dfs/data
[root@master hadoop]# mkdir -p /usr/local/src/hadoop/tmp
hdfs namenode -format
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)