如何配置Eclipse来使用Java编写Spark App

如何配置Eclipse来使用Java编写Spark App,第1张

1 环境准备

Eclipse 请不要使用最新的 Neon(46) ,太多Bug了。 还是使用最新的 Mars(45) 系列吧

JDK 版本8x (Linux推荐Oracle, 没有测试过OpenJDK)

因为只是用Java,因此无需安装Scala及其相应的插件

2 创建一个新的maven项目

3 pomxml

<dependency>

<groupId>orgapachehadoop</groupId>

<artifactId>hadoop-client</artifactId>

<version>260</version>

<exclusions>

<exclusion>

<groupId>javaxservlet</groupId>

<artifactId></artifactId>

</exclusion>

</exclusions>

</dependency>

<dependency>

<groupId>orgapachespark</groupId>

<artifactId>spark-core_210</artifactId>

<version>161</version>

</dependency>

<dependency>

<groupId>orgapachespark</groupId>

<artifactId>spark-streaming_210</artifactId>

<version>161</version>

</dependency>

<dependency>

<groupId>orgapachespark</groupId>

<artifactId>spark-mllib_210</artifactId>

<version>161</version>

</dependency>

<dependency>

<groupId>orgscala-lang</groupId>

<artifactId>scala-library</artifactId>

<version>2105</version>

</dependency>

这里只列出了必要的几个依赖。 其他的请根据你自己的项目需求添加

4 使用maven打包

之后在Goal 之中填写clean package 即可

如果在修改了与Spark相关的代码之后,需要重新编译打包才行。 否则会有异常提示。

5 代码编写注意事项:

在创建JavaSparkContext的时候,需要把自己加进去。

public static JavaSparkContextgetContext(String taskName) {

JavaSparkContextsc = new JavaSparkContext(SparkConnUtilsgetSparkConf(taskName));

scaddJar("target/sparkstat-001-SNAPSHOTjar");

return sc;

}

其中target/sparkstat-001-SNAPSHOTjar是maven 运行之后生成的完整的jar包

你的spark集群的主机的hosts列表中有master对应的ip吗,看看/etc/hosts中有没有一行,如果spark的主机也就是master是本地机器,就用setMaster("spark://localhost:7077"):

好了;

建议还是用Idea来编spark程序

以上就是关于如何配置Eclipse来使用Java编写Spark App全部的内容,包括:如何配置Eclipse来使用Java编写Spark App、在Eclipse中跑一个Spark的算Pi例子。报错如下:、等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/10124036.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-05
下一篇 2023-05-05

发表评论

登录后才能评论

评论列表(0条)

保存