spark-shell使用

spark-shell使用,第1张

spark-shell使用

文章目录

使用SparkPi提交任务

bug(待解决): spark-shell进行词频统计

使用SparkPi提交任务

先开启spark集群

[root@hadoop01 bin]# ./spark-submit --class org.apache.spark.examples.SparkPi /
--master spark://hadoop01:7077 /
--executor-memory 1G /
--total-executor-cores 1 examples/jars/spark-examples_2.12-3.2.0.jar 10

进入hadoop01:8080网址可以显示出

高可用时需要指向一个Master列表:

[root@hadoop01 bin]# ./spark-submit --class org.apache.spark.examples.SparkPi /
--master spark://hadoop01:7077,hadoop02:7077,hadoop03:7077 /
--executor-memory 1G /
--total-executor-cores 1 examples/jars/spark-examples_2.12-3.2.0.jar 10
bug(待解决):

spark-shell进行词频统计

在spark-env.sh配置文件中添加:

#指定HDFS配置文件目录
export HADOOP_CONF_DIR=/export/servers/hadoop-2.7.4/etc/hadoop

然后先启动zookeeper,再启动hadoop,最后启动spark。

创建需要统计的文件,并传入hdfs中。

启动spark-shell

[root@hadoop01 bin]# ./spark-shell --master local[2]

词频统计结果:

sc.textFile("/spark/test/words.txt").flatMap(_.split("")).map((_,1)).reduceByKey(_+_).collect

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5715526.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存