PySpark:java.lang.OutofMemoryError:Java堆空间

PySpark:java.lang.OutofMemoryError:Java堆空间,第1张

PySpark:java.lang.OutofMemoryError:Java堆空间

在尝试了配置参数的负载之后,我发现只需更改一项即可启用更多的堆空间,即

spark.driver.memory

sudo vim $SPARK_HOME/conf/spark-defaults.conf#uncomment the spark.driver.memory and change it according to your use. I changed it to belowspark.driver.memory 15g# press : and then wq! to exit vim editor

关闭现有的spark应用程序,然后重新运行。您将不会再遇到此错误。:)



欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5499571.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-12
下一篇 2022-12-13

发表评论

登录后才能评论

评论列表(0条)

保存