Spark 1.4增加maxResultSize内存

Spark 1.4增加maxResultSize内存,第1张

Spark 1.4增加maxResultSize内存

您可以

spark.driver.maxResultSize
SparkConf
对象中设置参数

from pyspark import SparkConf, SparkContext# In Jupyter you have to stop the current context firstsc.stop()# Create new configconf = (SparkConf()    .set("spark.driver.maxResultSize", "2g"))# Create new contextsc = SparkContext(conf=conf)

您可能还应该创建一个新的

SQLContext

from pyspark.sql import SQLContextsqlContext = SQLContext(sc)


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5661599.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存