spark查看df中分区号与对应分区的数据量

spark查看df中分区号与对应分区的数据量,第1张

spark查看df中分区号与对应分区的数据量
 frame.rdd
      .mapPartitionsWithIndex{case (i,rows) => Iterator((i,rows.size))}
      .toDF("partition_number","number_of_records")
      .show()

查询结果如下

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5071784.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-11-16
下一篇 2022-11-16

发表评论

登录后才能评论

评论列表(0条)

保存