Scala 通过读取HDFS上的文件创建SparkRDD出现的问题

Scala 通过读取HDFS上的文件创建SparkRDD出现的问题,第1张

Scala 通过读取HDFS上的文件创建SparkRDD出现的问题 一、Could not locate executable nullbinwinutils.exe in the Hadoop binaries.

如果本机 *** 作系统是Windows,如果在程序中使用了Hadoop相关的东西,比如写入文件到HDFS,则会遇到该异常
出现这个问题的原因,并不是程序的错误,而是用到了hadoop相关的服务,解决办法:
1、在本机上解压对应版本的hadoop压缩包
不太清楚别的版本压缩包行不行,bin里面要有winutils.exe
如果没有,请自行前往下载对应版本
https://github.com/cdarlint/winutils

2、配置HADOOP_HOME环境变量
3、在IDEA中配置Run Configuration,添加HADOOP_HOME变量

二、Exception in thread “main” org.apache.hadoop.security.AccessControlException: Permission denied: user=LCQ, access=WRITE, inode="/":fanger:supergroup:drwxr-xr-x

Windows和Linux用户不对应,导致权限问题

解决方法:
添加一行代码

System.setProperty("HADOOP_USER_NAME", "lcq")

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5574413.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-14
下一篇 2022-12-14

发表评论

登录后才能评论

评论列表(0条)

保存