此过程可见 Hadoop高手之路–01–集群搭建
(五)配置虚拟机 1、配置网络 2、配置主机名 3、免密登录
三台虚拟机都需要关闭防火墙
使配置文件起作用
验证是否配置成功
(2)hdfs-site.xmlfs.defaultFS hdfs://ns1 hadoop.tmp.dir /export/data/hadoop/tmp ha.zookeeper.quorum ha-01:2181,ha-02:2181,ha-03:2181
(3)Mapred-site.xmldfs.replication 2 dfs.namenode.name.dir /export/data/hadoop/name dfs.datanode.data.dir /export/data/hadoop/data dfs.webhdfs.enabled true dfs.nameservices ns1 dfs.ha.namenodes.ns1 nn1,nn2 dfs.namenode.rpc-address.ns1.nn1 ha-01:9000 dfs.namenode.http-address.ns1.nn1 ha-01:50070 dfs.namenode.rpc-address.ns1.nn2 ha-02:9000 dfs.namenode.http-address.ns1.nn2 ha-02:50070 dfs.namenode.shared.edits.dir qjournal://ha-01:8485;ha-02:8485;ha-03:8485/ns1 dfs.journalnode.edits.dir /export/data/hadoop/journaldata dfs.ha.automatic-failover.enabled true dfs.client.failover.proxy.provider.ns1 org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider dfs.ha.fencing.methods sshfence shell(/bin/true) dfs.ha.fencing.ssh.private-key-files /root/.ssh/id_rsa dfs.ha.fencing.ssh.connect-timeout 30000
(4)Yarn-site.xmlmapreduce.framework.name yarn
(5)Workers (6)Hadoop-env.sh 5.分发Hadoopyarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.ha.enabled true yarn.resourcemanager.cluster-id yrc yarn.resourcemanager.ha.rm-ids rm1,rm2 yarn.resourcemanager.hostname.rm1 ha-01 yarn.resourcemanager.hostname.rm2 ha-02 yarn.resourcemanager.zk-address ha-01:2181,ha-02:2181,ha-03:2181 yarn.resourcemanager.recovery.enabled true yarn.resourcemanager.store.class org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore
分发配置文件
使配置文件起作用
验证是否配置成功
注意这一步一定要在ha-01上 *** 作
注意这一步一定要在ha-01上 *** 作
注意这一步一定要在ha-01上 *** 作
分发到ha-02
出现报错,修改hadoop-env.sh
修改后再次启动
出现错误,修改hadoop-env.sh文件
修改后再次启动
在ha-02上杀掉rm进程,模拟服务器宕机
查看yarn运行状态
杀死ha-01的namenode进程,模拟服务器挂机
查看集群工作状态
可以看到ha-02自动成为激活状态,集群工作正常
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)