实验环境:
(1) *** 作系统:Linux;
(2)Hadoop版本:3.3.0;
(3)Spark版本:3.1.2
实验内容:
根据自己安装的Hadoop模式,选择对应的Spark配置模式。本文中我们安装Spark的伪分布式
1.Spark配置文件清单
下载Spark包之后解压。
配置环境变量:
老规矩,依旧需要
source /etc/profile
配置文件:
1> spark-env.sh
2>workers
写入自己的ip地址
启动spark集群
网页显示一波
在网址栏输入
自己虚拟机的ip : 8080
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)