spark写入分区表注意事项

spark写入分区表注意事项,第1张

spark写入分区表注意事项
    val df = Seq(
      (9999,22)
      ,(8888,22)
    ).toDF("col2","col1")
    df.write.mode(SaveMode.Append).insertInto("tb_demo_2")
    // spark并不看你df的列名,而是根据位置顺序传入. 所以9999 被插入到了tb_demo_2的col1中
    // partitionBy 是配合 saveAsTable 创建分区表用的. 不能和 insertInto 一起使用.
    // 插入分区表不需要partitionby,spark自动根据后面几个字段按位置匹配.
    // saveAsTable 总是会删除表(如果是分区表,所有分区被删除),不信你建表的时候comment一下信息.
    // 配合 https://blog.csdn.net/penriver/article/details/116201242 理解
    

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5701744.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存