Spark3.2教程(一)Windows10搭建Spark3

Spark3.2教程(一)Windows10搭建Spark3,第1张

Spark3.2教程(一)Windows10搭建Spark3

目前Spark官方提供的最新版本3.2,是2021年10月份发布,但是该版本搭建Windows下环境,在使用spark-shell时,会报以下错误,尚无解决方案。


退而求其次,使用Spark3.1.2,则完全正常。
本次搭建环境,所使用到的系统为Windows10,JDK1.8,Hadoop3.3.1,Scala2.1.3,Spark为3.1.2
注意过程中,所解压文件不要放在有空格的文件夹中,CMD使用管理员身份打开。

首先在Windows上搭建Hadoop,请参考:
Windows上搭建Hadoop
成功后,在CMD中输入

hadoop version

会显示:

安装Sacla,官网下载,解压到某盘符下文件中,配置环境变量:

在PATH中,添加

%SCALA_HOME%bin

在CMD中测试:

官网下载Spark,本次下载使用的是:

下载后解压到某盘符下文件夹内,并配置环境变量:

并在PATH中添加:

%SPARK_HOME%bin

在CMD中测试,输入:

spark-shell

可以看到如下画面:

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5676637.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存