spark如何使用spark—submit导入jar包

spark如何使用spark—submit导入jar包,第1张

在eclipse中,依次选择“File” –>“New” –>“Other…” –> “Scala Wizard” –>“Scala Project”,创建一个Scala工程,并命名为“SparkScala”。

右击“SaprkScala”工程,选择“Properties”,在d出的框中,按照下图所示,依次选择“Java Build Path” –>“Libraties” –>“Add External JARs…”,导入文章“Apache Spark:将Spark部署到Hadoop 2.2.0上”中给出的

assembly/target/scala-2.9.3/目录下的spark-assembly-0.8.1-incubating- hadoop2.2.0.jar,这个jar包也可以自己编译spark生成,放在spark目录下的assembly/target/scala- 2.9.3/目录中。

maven工程中添加jar有两种方式添。 第一: 通过【Dependencies】,可视化界面 *** 作点击Dependencies标签页。点击【add】按钮 输入我们想添加的jar包名字进行搜索.就会出现下图中所示。他会把对应名称的所有版本jar包列出来. 选择对应jar包,


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/bake/11886684.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-19
下一篇 2023-05-19

发表评论

登录后才能评论

评论列表(0条)

保存