(一)下线Worker节点(二)上线Worker节点
(一)下线Worker节点我的 *** 作:关机就是了……
反正工作自然会交给其它节点做的。
当然其实应该这样,登录到需要下线的节点主机:
执行脚本关闭本机Worker:
$> $SPARK_HOME/sbin/stop-worker.sh
注意还有一个stop-workers.sh,是用来关闭全部Worker的,别搞错了。
看清楚多一个s!!!
如果你在Master上不小心执行了这个多个S的脚本(Master到所有Worker一定都配置了ssh密钥登录),
那么就全关完了……
关机前:
关机后:
过一段时间DEAD的Worker就会消失(集群总要留点时间看它能不能重新连接嘛)。
.
(二)上线Worker节点登录到需要上线的节点主机:
执行脚本启动本机Worker,并连接到Spark Master:
$> $SPARK_HOME/sbin/start-worker.sh spark://vm00:7077
注意还有一个start-workers.sh脚本。区别同上。
最后,如果是一个新的Worker,别忘了在$SPARK_CONF_DIR里面编辑workers(或slaves)。
加入新Worker的主机名,方便下次集群全部一起启动。
对了,新启动的Worker有新的ID。
呃……完。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)