hive或spark的错误

hive或spark的错误,第1张

hive或spark的错误

FAILED: SemanticException Failed to get a spark session: org.apache.hadoop.hive.ql.metadata.HiveException: Failed to create Spark client for Spark session e7509679-36bf-4bf9-973f-a091ddf0cb79

 

因为这个问题是偶发性的,并不是一开始就抛出这个异常。所以一个晚上都是调试,最后发现当这个队列资源达到100%后,如果短期内都没有任务空余资源释放出来提供给创建 sparksession使用,将会导致任务失败而抛出这个异常 。

解决办法 :加大client连接时间间隔;

修改hive的配置文件hive-site.xml


    hive.spark.client.connect.timeout
    100000ms

或者在命令行中修改参数(临时的)

set hive.spark.client.server.connect.timeout=100000; 

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5683742.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存