Spark job failed during runtime. Please check stacktrace for the root cause.

Spark job failed during runtime. Please check stacktrace for the root cause.,第1张

Spark job failed during runtime. Please check stacktrace for the root cause.

spark日志:Caused by: java.io.IOException: Connection reset by peer

hive on spark进行数据装载时报的错,百度了好多解决方法,也试了好多

最后发现是分区太多卡住的。。。。无语。。。。按天分区改成按月分区就可以了

但是不能一直按月分区呀,就设置了临时动态分区数:

SET hive.exec.max.dynamic.partitions=100000;  //设置 hive的最大动态分区数
SET hive.exec.max.dynamic.partitions.pernode=100000;

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5705946.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存