【无标题】

【无标题】,第1张

【无标题】 安装spark3.2 1 .下载

地址:https://spark.apache.org/downloads.html

2. 解压到安装目录

解压:

重命名:

3.安装scala

地址:https://downloads.lightbend.com/scala/2.12.15/scala-2.12.15.tgz

4. 配置环境变量


立即生效:source ~/.bashrc

4.配置

配置spark-env.sh

cp $SPARK_HOME/conf/spark-env.sh.template $SPARK_HOME/conf/spark-env.sh
vim $SPARK_HOME/conf/spark-env.sh
export JAVA_HOME=/usr/local/java
export SCALA_HOME=/opt/src/scala-2.12.15
export HADOOP_HOME=/opt/src/hadoop-3.3.1
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_MASTER_HOST=node001
export SPARK_LOCAL_DIRS=/opt/src/spark-3.2.0
export SPARK_DRIVER_MEMORY=2g  #内存
export SPARK_WORKER_CORES=1     #cpus核心数


配置workers

添加worker主机:

5.复制到其他结点并启动

6.启动
./sbin/start-all.sh


7.验证
./bin/run-example SparkPi 10

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5665032.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存