由于计算是分布式的,因此Spark会将结果保存在多个文件中。因此写:
counts.write.csv("hdfs://home/myDir/text_file.csv")
text_file.csv。如果要将数据保存为单个文件,请
coalesce(1)首先使用:
counts.coalesce(1).write.csv("hdfs://home/myDir/text_file.csv")
这会将所有数据放入一个分区,因此保存的文件数将为1。但是,如果您有很多数据,这可能是个坏主意。如果数据非常小,则使用
collect()替代方法。这会将所有数据作为数组放置在驱动程序计算机上,然后可以将其保存为单个文件。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)