- 一、准备工作
- 二、开始安装配置
- 三、启动hadoop集群
- 四、验证
- 环境
Vmware+centos7+jdk8+hadoop-2.7.3 - 说明
hadoop全分布模式需要三台主机:ethan001,ethan002,ethan003 - 主机分布规划:
主节点:ethan001
从节点:ethan002 ethan003
1、hadoop安装包,hadoop-2.7.3.tar
提码:1111
2、三台安装好jdk的虚拟机,jdk安装教程
3、所有主机都配置好主机名映射关系
vi /etc/hosts
输入自己三台虚拟机的ip 主机名():
192.168.174.140 ethan001 192.168.174.141 ethan003 192.168.174.142 ethan002
4、三台主机之间配置好免密登录
5、保证每台机器的时间是一样的
如果不一样的话,我们在执行MapReduce程序的时候可能会存在问题.。 解决方案:
- 搭建一个时间同步的服务器,网上很多教程可以使用
- 安装和配置环境变量
- 在主机/opt/目录下创建两个目录:soft和module
mkdir /opt/soft /opt/module - 将hadoop安装包上传到主机ethan002上的soft目录下
- 解压安装包到module目录下
tar -zvxf hadoop-2.7.3.tar.gz -C /opt/module/ - 配置环境变量
vi /etc/profile#hadoop export HADOOP_HOME=/opt/module/hadoop-2.7.3 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
- 创建tmp目录
mkdir /opt/module/hadoop-2.7.3/tmp
- 集群配置
-
集群部署规划
-
规划集群
(1) 修改haoop-env.sh 添加JAVA_HOME
命令:
vi /opt/module/hadoop-2.7.3/etc/hadoop/hadoop-env.sh
添加如下信息:
export JAVA_HOME=/opt/module/jdk1.8.0_171(2) 核心配置文件
配置core-site.xml
vi core-site.xml
在文件中添加如下配置信息:fs.defaultFS hdfs://ethan001:9000 hadoop.tmp.dir /opt/module/hadoop-2.7.3/data/tmp (3)配置hdfs-site.xml文件
vi hdfs-site.xml
添加如下配置信息:dfs.replication 3 dfs.namenode.secondary.http-address ethan003:50090 (4) 配置yarn-site.xml文件
vi yarn-site.xml
添加如下配置信息:yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname ethan002 yarn.log-aggregation-enable true yarn.log-aggregation.retain-seconds 604800 yarn.log.server.url http://ethan002:19888/jobhistory/logs yarn.nodemanager.pmem-check-enabled false yarn.nodemanager.vmem-check-enabled false (5)配置mapred-site.xml文件
vi mapred-site.xml
添加如下配置信息:mapreduce.framework.name yarn mapreduce.jobhistory.address ethan001:10020 mapreduce.jobhistory.webapp.address ethan001:19888 yarn.log.server.url http://ethan001:19888/jobhistory/logs (6)配置slaves文件
vi /opt/module/hadoop-2.7.3/etc/hadoop/slaves
添加如下信息(添加的是hadoop集群的DataNode节点的主机名):ethan002 ethan003
(7) 将hadoop分发到其他节点
scp -r hadoop-2.7.3 root@ethan001:/opt/module/ scp -r hadoop-2.7.3 root@ethan003:/opt/module/
查看分发情况:
三、启动hadoop集群
cat /opt/module/hadoop-2.7.3/etc/hadoop/core-site.xml
(8)格式化NameNode
hdfs namenode -format
输出的日志中有如下信息则成功
Storage directory /tmp/hadoop-root/dfs/name has been successfully formatted.在ethan002上启动hadoop,因为yarn是配置在ethan002上的,只有在ethan002上启动集群时ResourceManager和nodeManager进程才会启动。
四、验证
启动命令:
start-all.sh
-
查看进程
jps
-
浏览网页
hdfs:
http://ethan001:50070
yarn:
http://ethan002:8080
至此,hadoop集群的安装完成,主要的就是一定要先安装jdk
如果您在阅读时发现存在错误,还请您帮忙指出,非常感谢
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)