java 怎么提交应用程序到spark standalone集群中去运行

java 怎么提交应用程序到spark standalone集群中去运行,第1张

1、Spark脚本提交/运行/部署1.1spark-shell(交互窗口模式)运行Spark-shell需要指向申请资源的standalonespark集群信息,其参数为MASTER,还可以指定executor及driver的内存大小。sudospark-shell--executor-memory5g--driver-memory1g--masterspark://192.168.180.216:7077spark-shell启动完后,可以在交互窗口中输入Scala命令,进行 *** 作,其中spark-shell已经默认生成sc对象,可以用:valuser_rdd1=sc.textFile(inputpath,10)读取数据资源等。1.2spark-shell(脚本运行模式)上面方法需要在交互窗口中一条一条的输入scala程序;将scala程序保存在test.scala文件中,可以通过以下命令一次运行该文件中的程序代码:sudospark-shell--executor-memory5g--driver-memory1g--masterspark//192.168.180.216:7077

在 C 语言中,第一行不需要写入 shell 脚本程序的#!/bin/bash,是因为 C 语言程序是由 C 编译器而不是 shell 来执行的

shell脚本一般第一行包含一个指示解释器用来执行脚本的命令,#!/bin/bash表示脚本应该使用 bash 解释器执行


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/12022274.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-20
下一篇 2023-05-20

发表评论

登录后才能评论

评论列表(0条)

保存