hdfs集群txt文件乱码问题,Hadoop文件输出查看中文乱码解决方法

hdfs集群txt文件乱码问题,Hadoop文件输出查看中文乱码解决方法,第1张

  1. 如果你是在window系统下创建的包含有中文的txt文件:
  2. 而把它直接拖到Linux环境的目录下:
  3. 而且在linux系统中使用文本编辑器打开后发现并没有乱码:
  4. 但是用vim编辑器打开后发现中文乱码:
  5. 然后再把它上传到hdfs集群后:不管你是在集群查看,还是在终端输入cat命令查看都是中文乱码的
  6. 细心的同学发现第一张图片的编码格式为ANSI
解决方法:

此时只需将文件点击另存为,将编码格式改为UTF-8,再重复步骤即可,或者直接在Linux系统内创建文件,上传到集群也是正常的。


所以说,究其原因还是文件编码格式出现了问题,只不过不是jar包,也不是eclipse的编码格式,也不是Linux环境的编码格式导致的,出现乱码时检查了大量原因也没能发现这个问题
附:HDFS常用命令

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/langs/742222.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-04-28
下一篇 2022-04-28

发表评论

登录后才能评论

评论列表(0条)

保存