目前Spark官方提供的最新版本3.2,是2021年10月份发布,但是该版本搭建Windows下环境,在使用spark-shell时,会报以下错误,尚无解决方案。
退而求其次,使用Spark3.1.2,则完全正常。
本次搭建环境,所使用到的系统为Windows10,JDK1.8,Hadoop3.3.1,Scala2.1.3,Spark为3.1.2
注意过程中,所解压的文件不要放在有空格的文件夹中,CMD使用管理员身份打开。
首先在Windows上搭建Hadoop,请参考:
Windows上搭建Hadoop
成功后,在CMD中输入
hadoop version
会显示:
安装Sacla,官网下载,解压到某盘符下文件中,配置环境变量:
在PATH中,添加
%SCALA_HOME%bin
在CMD中测试:
官网下载Spark,本次下载使用的是:
下载后解压到某盘符下文件夹内,并配置环境变量:
并在PATH中添加:
%SPARK_HOME%bin
在CMD中测试,输入:
spark-shell
可以看到如下画面:
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)