spark连接hive

spark连接hive,第1张

spark连接hive: shell窗口下:


将core-site.xml、hdfs-site.xml、hive-site.xml复制到spark下的conf目录下,如果需要其它第三方包支持的,将第三方包放置jars下,例如:lzo压缩包,如果core-site.xml配置了相关lzo相关压缩,则将lzo的jar放置spark目录的jars中,然后
重新启动spark-shell即可。

 

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/web/926581.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-16
下一篇 2022-05-16

发表评论

登录后才能评论

评论列表(0条)

保存