val df = Seq( (9999,22) ,(8888,22) ).toDF("col2","col1") df.write.mode(SaveMode.Append).insertInto("tb_demo_2") // spark并不看你df的列名,而是根据位置顺序传入. 所以9999 被插入到了tb_demo_2的col1中 // partitionBy 是配合 saveAsTable 创建分区表用的. 不能和 insertInto 一起使用. // 插入分区表不需要partitionby,spark自动根据后面几个字段按位置匹配. // saveAsTable 总是会删除表(如果是分区表,所有分区被删除),不信你建表的时候comment一下信息. // 配合 https://blog.csdn.net/penriver/article/details/116201242 理解
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)