说明:
之前已经安装配置过了 Hadoop 的 hdfs,yarn 分布式集群,在此基础上进行spark的安装(基于jvm,可以不安装scala)
1.安装spark
1.1下载Spark安装包:
去官网下载 :
Download Spark: spark-2.1.1-bin-hadoop2.6.tgz
下载地址:http://spark.apache.org/downloads.html
1.2上传解压:
在上传目录下
[root@hadoop1 ]# tar -zxvf spark-3.2.0-bin-hadoop2.7.tgz -C /home/hadoop/spark
1.3修改环境变量
在/home/hadoop/.bashrc 添加(已经在此添加过了hadoop 环境变量)
export SPARK_HOME=/home/hadoop/spark
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)