一.集群环境搭建
环境准备
(1) 服务器配置
IP
主机名
环境配置
安装
10.100.100.42
node01
关闭防火墙和selinux,host映射,时钟同步
JDK,NameNode,ResourceManager,Zookeeper
10.100.100.43
node02
关闭防火墙和selinux,host映射,时钟同步
JDK,DataNode,NodeManager,Zookeeper
10.100.100.44
node03
关闭防火墙和selinux,host映射,时钟同步
JDK,DataNode,NodeManager,Zookeeper
(2) 修改主机名与主机名映射
(3) 关闭防火墙和SELinux
(4) SSH免密登录
(5) 时钟同步
(6) 集群机器安装JDK(1.8)
二.Zookeeper集群环境搭建
(1) 集群规划
IP
主机名
MyId
10.100.100.42
Node01
1
10.100.100.43
Node02
2
10.100.100.44
Node03
3
(2) 下载Zookeeper(3.4.9)安装包
(3) 解压文件
(4) 修改配置文件
(5) 创建myid配置文件
(6) 安装包分发到node02 node03
(7) 启动集群中每台机器的zookeeper服务
三.Hadoop集群环境搭建
(1) 集群规划
服务器IP
10.100.100.42
10.100.100.43
10.100.100.44
主机名
Node01
Node02
Node03
NameNode
是
否
否
SecondaryNameNode
是
否
否
dataNode
是
是
是
ResourceManager
是
否
否
NodeManager
是
是
是
(2) 安装包下载(Hadoop2.7.5)
(3) 文件上传及解压 详细 *** 作见上面类似的 *** 作
(4) 修改配置文件
修改hdfs-site.xml 文件路径 /export/soft/hadoop-2.7.5/etc/hadoop/hdfs-site.xml 修改内容 fs.default.name hdfs://192.168.1.200:8020 hadoop.tmp.dir /export/soft/hadoop-2.7.5/hadoopDatas/tempDatas io.file.buffer.size 4096 fs.trash.interval 10080 修改hadoop-env.sh 主要是修改jdk的路径 /export/soft/jdk1.8.0_144 修改mapred-site.xml 修改内容 dfs.namenode.secondary.http-address node01:50090 dfs.namenode.http-address node01:50070 dfs.namenode.name.dir file:///export/soft/hadoop-2.7.5/hadoopDatas/namenodeDatas,file:///export/soft/hadoop-2.7.5/hadoopDatas/namenodeDatas2 dfs.datanode.data.dir file:///export/soft/hadoop-2.7.5/hadoopDatas/datanodeDatas,file:///export/soft/hadoop-2.7.5/hadoopDatas/datanodeDatas2 dfs.namenode.edits.dir file:///export/soft/hadoop-2.7.5/hadoopDatas/nn/edits dfs.namenode.checkpoint.dir file:///export/soft/hadoop-2.9.2/hadoopDatas/snn/name dfs.namenode.checkpoint.edits.dir file:///export/soft/hadoop-2.9.2/hadoopDatas/dfs/snn/edits dfs.replication 3 dfs.permissions false dfs.blocksize 134217728 mapreduce.job.ubertask.enable true mapreduce.jobhistory.address node01:10020 mapreduce.jobhistory.webapp.address node01:19888
修改yarn-site.xml,修改内容
yarn.resourcemananger.hostname node01 yarn.nodemanager.aux-services mapreduce_shuffle yarn.log-aggregation-enable true yarn.log-aggregation.retain-seconds 604800 yarn.nodemanager.resource.memory-mb 20480 yarn.scheduler.minimum-allocation-mb 2048 yarn.nodemanager.vmem-pmem-ratio 2.1
export JAVA_HOME=/export/soft/jdk1.8.0_144
修改slaves 改文件主要是配置丛级关系 修改内容如下:Node01 Node02 Node03
mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/tempDatas mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/namenodeDatas mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/namenodeDatas2 mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/datanodeDatas mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/datanodeDatas2 mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/nn/edits mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/snn/name mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/dfs/snn/edits
scp -r 安装包路径 node02:$PWD
scp -r 安装包路径 node03:$PWD
vi /etc/profile
export HADOOP_HOME=/ export/soft/hadoop-2.9.2
export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
source /etc/profile
cd /export/soft/hadoop-2.7.5/
bin/hdfs/ namenode -format(第一次启动才执行)
sbin/start-dfs.sh Sbin/start-yarn.sh
sbin/mr-jobhistory-daemon.sh start historyserver
网页查看hdfs http://node01:50070/explorer.html#/
网页查看yarn集群 http://node01:8088/cluster
网页查看历史完成的任务 http://node01:19888/jobhistory
四.Hbase(hadoop数据库)安装
(1)安装包下载并上传(hbase 2.1.0)
下载路径 http://archive.apache.org/dist/hbase 软件版本 2.1.0
(2)修改hbase-env.sh文件
export JAVA_HOME=/export/soft/jdk1.8.0_144
export Hbase_MANAGES_ZK=false
(3)修改hbase-site.xml文件
hbase.rootdir hdfs://node01:8020/hbase hbase.cluster.distributed true hbase.zookeeper.quorum node01,node02,node03 hbase.zookeeper.property.dataDir /export/soft/zookeeper-3.4.9/zkdatas hbase.tmp.dir ./tmp hbase.unsafe.stream.capability.enforce false
(4)配置环境变量文件
export Hbase_HOME=/export/soft/hbase-2.4.0
export PATH=:$Hbase_HOME/bin:$Hbase_HOME/sbin:$PATH
(5)拷贝依赖库
cp $Hbase_HOME/lib/client-facing-thirdparty/htrace-core4-4.2.0-incubating.jar $Hbase_HOME/lib
(6)修改regionservers文件
(7)安装包分发
scp -r hbase-2.4.0/ node02:$PWD
scp -r hbase-2.4.0/ node03:$PWD
(8)修改node02 node03的环境变量并生效
(9)启动Hbase
首先要保证zookeeper集群和hadoop集群已经启动。然后在主节点上启动Hbase
进入到Hbase的bin目录,执行start-hbase.sh
(10)验证Hbase是否启动成功
(11)Hbase网页界面
Http://10.100.100.42:16010
五.Phoenix(5.0.0)插件安装
(1)文件下载
文件下载地址 Http://phoenix.apache.org/download.html
(2)文件上传并解压 tar -xvf phoenix-hbase-2.4.0-5.1.2-bin.tar.gz -C /export/soft
(3)拷贝Jar包到Hbase目录
cp /export/soft/phoenix-hbase-2.4.0-5.1.2-bin/phoenix-*.jar /export/soft/hbase-2.4.0/lib/
(4)分发Jar包到Hbase的其他节点上
scp phoenix-*.jar node02:$PWD
scp phoenix-*.jar node03:$PWD
(5)修改配置文件
修改hbase的配置文件 cd /export/soft/hbase-2.4.0/conf/ 修改hbase-site.xml文件phoenix.schema.isNamespaceMappingEnabled true hbase.regionserver.wal.codec org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec
(6)分发配置文件
scp hbase-site.xml node02:$PWD
scp hbase-site.xml node03:$PWD
(7)拷贝配置文件到phoenix目录中
cp hbase-site.xml /export/soft/phoenix-hbase-2.4.0-5.1.2-bin/bin/
(8)重启Hbase服务
新集群 zookeeper3.4.9 hadoop2.7.5 hbase 2.1.0 phoenix (5.0.0-Hbase2.0)
检查hadoop2.7.5对本地库的支持
Bin/hadoop/ checknative SpringBoot 整合Hadoop
客户端在windows环境下需要hadoop.dll
上述新集群
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)