上一次的集群没有做镜像备份,然后出问题了,重建集群的时候跑job出现这个问题,spark job无法创建hdfs的目录。
试过给总目录赋权限发现还是不行
后来觉得应该是spark创建hdfs创建文件跟查询文件用的应该不是一个配置啥的,就把hadoop的配置文件
hdfs-site.xml 和core-site.xml复制到了spark的conf目录下,结果就可以了
问题:
java.io.IOException: Mkdirs failed to create file:/movie_data/links/_temporary/0/_temporary/attempt_20211205120601_0003_m_000002_0 (exists=false, cwd=file:/home/bigdata/soft/spark/work/app-20211205120539-0026/1)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)