Ubuntu安装Spark

Ubuntu安装Spark,第1张

下载解压安装Spark

1.自行下载Spark版本

Spark官网:Downloads | Apache Spark

2.Spark压缩包地址:百度网盘 请输入提取码 提取码:dsjd

解压spark安装包

cd ~
sudo tar -zxf spark-2.1.0-bin-without-hadoop.tgz -C /usr/local #解压spark到/usr/local
cd /usr/local
mv spark-2.1.0-bin-without-hadoop/ spark    #将解压文件改名为spark
sudo chown -R hadoop spark/                 #赋予hadoop用户spark文件夹权限

 修改 ~/.bashrc 环境变量

vim ~/.bashrc
#添加如下两行
export SPARK_HOME=/usr/local/spark
export PATH=$SPARK_HOME/bin

配置slaves文件(该文件可以确定我们的worker在哪个节点运行)

cd /usr/local/spark
cp ./conf/slaves.template ./conf/slaves   #把模板文件设置为可用文件
vim ./conf/slaves
#添加节点
slave1

配置spark-env.sh文件

cp ./conf/spark-env.sh.template ./conf/spark-env.sh
vim ./conf/spark-env.sh

 

#添加以下变量
export HADOOP_HOME=/home/hadoop/hadoop-2.7.1
export JAVA_HOME=/usr/lib/jdk/jdk1.8.0_121
export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.7.1/etc/hadoop
export SPARK_MASTER_PORT=7077
export SPARK_MASTER_IP=192.168.44.131

注意 SPARK_MASTER_IP=192.168.44.131是你Master节点IP

 打包配置好的Spark文件分发到slave1节点

cd /usr/local
tar -zcf ~/spark.master.tar.gz ./spark   #打包文件
cd ~
scp ./spark.master.tar.gz slave1:/home/hadoop #传输到slave1节点

切换至slave1节点,解压刚才传输过来的文件

sudo tar -zxf ~/spark.master.tar.gz -C /usr/local
sudo chown -R hadoop /usr/local/spark

 

切换root用户修改 /etc/profile 环境变量

su -
vi /etc/profile

 

#添加以下环境变量
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin
su - hadoop

启动集群

先启动Hadoop集群

cd ~/hadoop-2.7.1/sbin
start-all.sh

 再启动Spark

cd /usr/local/spark/sbin
start-master.sh
start-slaves.sh

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/758378.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-01
下一篇 2022-05-01

发表评论

登录后才能评论

评论列表(0条)

保存