1.点击file”->“project structure”。
2.进入到该项目中点击中间位置中的“Dependencies”后,进行点击添加按钮“+”。
3.可以看到三个选项,Library dependecy可以添加网络依赖,直接搜索你所需的库即可;File dependecy 可以添加jar包;Module dependecy可以添加本地module依赖。
在eclipse中,依次选择“File” –>“New” –>“Other…” –> “Scala Wizard” –>“Scala Project”,创建一个Scala工程,并命名为“SparkScala”。右击“SaprkScala”工程,选择“Properties”,在d出的框中,按照下图所示,依次选择“Java Build Path” –>“Libraties” –>“Add External JARs…”,导入文章“Apache Spark:将Spark部署到Hadoop 2.2.0上”中给出的
assembly/target/scala-2.9.3/目录下的spark-assembly-0.8.1-incubating- hadoop2.2.0.jar,这个jar包也可以自己编译spark生成,放在spark目录下的assembly/target/scala- 2.9.3/目录中
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)