如何在Windows中使用Intellij idea搭建远程Hadoop开发环境

如何在Windows中使用Intellij idea搭建远程Hadoop开发环境,第1张

(1)准备工作
1) 安装JDK 6或者JDK 7
2) 安装scala 210x (注意版本)
2)下载Intellij IDEA最新版(本文以IntelliJ IDEA Community Edition 1311为例说明,不同版本,界面布局可能不同)
3)将下载的Intellij IDEA解压后,安装scala插件,流程如下:
依次选择“Configure”–> “Plugins”–> “Browse repositories”,输入scala,然后安装即可
(2)搭建Spark源码阅读环境(需要联网)
一种方法是直接依次选择“import project”–> 选择spark所在目录 –>
“SBT”,之后intellij会自动识别SBT文件,并下载依赖的外部jar包,整个流程用时非常长,取决于机器的网络环境(不建议在windows
下 *** 作,可能遇到各种问题),一般需花费几十分钟到几个小时。注意,下载过程会用到git,因此应该事先安装了git。
第二种方法是首先在linux *** 作系统上生成intellij项目文件,然后在intellij IDEA中直接通过“Open
Project”打开项目即可。在linux上生成intellij项目文件的方法(需要安装git,不需要安装scala,sbt会自动下载)是:在
spark源代码根目录下,输入sbt/sbt gen-idea
注:如果你在windows下阅读源代码,建议先在linux下生成项目文件,然后导入到windows中的intellij IDEA中。
(3)搭建Spark开发环境
在intellij IDEA中创建scala project,并依次选择“File”–> “project structure”
–> “Libraries”,选择“+”,将spark-hadoop
对应的包导入,比如导入spark-assembly_210-090-incubating-hadoop220jar(只需导入该jar
包,其他不需要),如果IDE没有识别scala 库,则需要以同样方式将scala库导入。之后开发scala程序即可:
编写完scala程序后,可以直接在intellij中,以local模式运行,方法如下:
点击“Run”–> “Run Configurations”,在d出的框中对应栏中填写“local”,表示将该参数传递给main函数,如下图所示,之后点击“Run”–> “Run”运行程序即可。
如果想把程序打成jar包,通过命令行的形式运行在spark 集群中,可以按照以下步骤 *** 作:
依次选择“File”–> “Project Structure” –> “Artifact”,选择“+”–>
“Jar” –> “From Modules with
dependencies”,选择main函数,并在d出框中选择输出jar位置,并选择“OK”。
最后依次选择“Build”–> “Build Artifact”编译生成jar包。

首先,打开一个的Intellij IDEA的界面中,选中一个项目的文件
2
/6
点击了的Intellij IDEA的菜单中的,点击菜单中 vcs 菜单
3
/6
点击了vcs的菜单之后,d出了下拉菜单选中为 git 选项
4
/6
点击了git选项之后,d出了下一级菜单选中为 pull 选项
5
/6
点击了pull的界面中,点击 pull 按钮
6
/6
可以看到是的正在从远程的代码仓库中获取到最新的代码。
内容仅供参考并受版权保护


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/12721538.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-27
下一篇 2023-05-27

发表评论

登录后才能评论

评论列表(0条)

保存