Spark SQL Python 版 使用 Delta Lake(07)

Spark SQL Python 版 使用 Delta Lake(07),第1张

Spark SQL Python 版 使用 Delta Lake(07) Python使用 Delta Lake

今天我们看一下如何在Python 中使用 Delta Lake,毕竟现在很多人开发Spark任务是通过Python而不是scala,当然这也体现了Spark 生态的完善。

当然我们还是要看一下版本的兼容情况

Delta Lake version Apache Spark version 1.0.x 3.1.x 0.7.x and 0.8.x 3.0.x Below 0.7.0 2.4.2 - 2.4. 环境准备

通过上面的表格,我们可以使用Delta Lake 的最新版本,也就是1.0 但是我们的Spark 却不能使用最新版本的,只能使用3.1,这里我们就安装pyspark,执行

pip install pyspark==3.1.2

运行pyspark

安装好了,我们就可以运行我们的pyspark

pyspark --packages io.delta:delta-core_2.12:1.0.0 --conf "spark.sql.extensions=io.delta.sql.DeltaSparkSess

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5635211.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存