在PySpark 1.5.0中,如何基于列x的值列出列y的所有项目?

在PySpark 1.5.0中,如何基于列x的值列出列y的所有项目?,第1张

在PySpark 1.5.0中,如何基于列x的值列出列y的所有项目?

您可以使用

collect_list
Hive UDAF:

from pyspark.sql.functions import exprfrom pyspark import HiveContextsqlContext = HiveContext(sc)df = sqlContext.createDataframe(rdd)df.groupBy("x").agg(expr("collect_list(y) AS y"))

在1.6或更高版本中,可以使用collect_list函数:

from pyspark.sql.functions import collect_listdf.groupBy("x").agg(collect_list(y).alias("y"))

在2.0或更高版本中,无需Hive支持即可使用它。

但是,这并不是特别有效的 *** 作,因此您应适度使用它。

另外,请勿使用字典进行模式推断。从1.2开始不推荐使用



欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5021290.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-11-15
下一篇 2022-11-15

发表评论

登录后才能评论

评论列表(0条)

保存