python – 使用数组对象计算Spark RDD中的不同文本

python – 使用数组对象计算Spark RDD中的不同文本,第1张

概述我有一个由文本数组组成的spark rdd(单词).举个例子, words.take(3) 会返回类似的东西. [ ["A", "B"], ["B", "C"], ["C", "A", "D"] ] 现在,我想找出文本的总数以及文本的唯一数量.如果RDD只有3个以上的记录, total_words = 7unique_words = 4 (only A, B,C,D) 现在为了获得总数,我做了类 我有一个由文本数组组成的spark rdd(单词).举个例子,

words.take(3)

会返回类似的东西.

[ ["A","B"],["B","C"],["C","A","D"] ]

现在,我想找出文本的总数以及文本的唯一数量.如果RDD只有3个以上的记录,

total_words = 7unique_words = 4 (only A,B,C,D)

现在为了获得总数,我做了类似的事情

text_count_rdd = words.map(lambda x: len(x))text_count_rdd.sum()

但我仍然坚持如何检索唯一的计数.

解决方法 只是flatMap,采取截然不同的计数:

words.flatMap(set).distinct().count()
总结

以上是内存溢出为你收集整理的python – 使用数组对象计算Spark RDD中的不同文本全部内容,希望文章能够帮你解决python – 使用数组对象计算Spark RDD中的不同文本所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1197552.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-03
下一篇 2022-06-03

发表评论

登录后才能评论

评论列表(0条)

保存