通过前面的学习,我相信你已经了解了 Delta Lake 的基本使用,我们知道我们使用 Delta Lake 的目的是改变我们已经的数据架构,完成湖仓一体的目标,接下来我们看一下如何通过Spark SQL这种纯SQL 的方式使用Delta Lake
SQL 版 使用 Delta Lake 启动命令细心的你可能已经发现了,我们只是将spark-shell换成了spark-sql
spark-sql --packages io.delta:delta-core_2.12:1.0.0 --conf "spark.sql.extensions=io.delta.sql.DeltaSparkSessionExtension" --conf "spark.sql.catalog.spark_catalog=org.apache.spark.sql.delta.catalog.DeltaCatalog" --conf "spark.databricks.delta.retentionDurationCheck.enabled=false"
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)