【大数据】HBase集群安装部署

【大数据】HBase集群安装部署,第1张

【大数据】HBase集群安装部署 一、前提条件
  1. 服务器配置好,搭建大数据集群服务器看这篇:搭建学习使用的大数据集群环境:windows使用vmware安装三台虚拟机,配置好网络环境
  2. 安装好对应版本的hadoop集群,并启动
  3. 安装好对应版本的zookeeper集群,并启动
1. Hbase集群安装部署 1.1 准备安装包
  • 下载安装包并上传到node01服务器
  • 安装包下载地址:
    http://archive.cloudera.com/cdh5/cdh/5/hbase-1.2.0-cdh5.14.2.tar.gz
  • 将安装包上传到node01服务器/book/soft路径下,并进行解压
[book@bigdatanode01 ~]$ cd /book/soft/
[book@bigdatanode01 soft]$ tar -xzvf hbase-1.2.0-cdh5.14.2.tar.gz -C /book/install/
1.2 修改Hbase配置文件 1.2.1 hbase-env.sh
  • 修改文件
[book@bigdatanode01 soft]$ cd /book/install/hbase-1.2.0-cdh5.14.2/conf/
[book@bigdatanode01 conf]$ vim hbase-env.sh
  • 修改如下两项内容,值如下
export JAVA_HOME=/book/install/jdk1.8.0_141
export Hbase_MANAGES_ZK=false

1.2.2 hbase-site.xml
  • 修改文件
[book@bigdatanode01 conf]$ vim hbase-site.xml
  • 内容如下

    
        hbase.rootdir
         hdfs://node01:8020/hbase
    
    
        hbase.cluster.distributed
        true
    
    
    
        hbase.master.port
        16000
    
    
        hbase.zookeeper.quorum
        node01,node02,node03
    
    
    
        hbase.zookeeper.property.clientPort
        2181
    
    
        hbase.zookeeper.property.dataDir
        /book/install/zookeeper-3.4.5-cdh5.14.2/zkdatas
    
    
    
        zookeeper.znode.parent
        /hbase
    

1.2.3 regionservers
  • 修改文件
[book@bigdatanode01 conf]$ vim regionservers
  • 指定Hbase集群的从节点;原内容清空,添加如下三行
node01
node02
node03
1.2.4 back-masters
  • 创建back-masters配置文件,里边包含备份HMaster节点的主机名,每个机器独占一行,实现HMaster的高可用
#创建
[book@bigdatanode01 conf]$ vim backup-masters
  • 将node02作为备份的HMaster节点,文件内容如下
node02
1.3 分发安装包
  • 将node01上的Hbase安装包,拷贝到其他机器上
[book@bigdatanode01 conf]$ cd /book/install
[book@bigdatanode01 install]$ scp -r hbase-1.2.0-cdh5.14.2/ bigdatanode02:$PWD
[book@bigdatanode01 install]$ scp -r hbase-1.2.0-cdh5.14.2/ bigdatanode03:$PWD
1.4 创建软连接
  • 注意:三台机器均做如下 *** 作
    因为Hbase集群需要读取hadoop的core-site.xml、hdfs-site.xml的配置文件信息,所以我们三台机器都要执行以下命令,在相应的目录创建这两个配置文件的软连接
ln -s /book/install/hadoop-2.6.0-cdh5.14.2/etc/hadoop/core-site.xml /book/install/hbase-1.2.0-cdh5.14.2/conf/core-site.xml

ln -s /book/install/hadoop-2.6.0-cdh5.14.2/etc/hadoop/hdfs-site.xml /book/install/hbase-1.2.0-cdh5.14.2/conf/hdfs-site.xml
  • 执行完后,出现如下效果,以bigdatanode01为例
1.5 添加Hbase环境变量
  • 注意:三台机器均执行以下命令,添加环境变量
sudo vim /etc/profile
  • 文件末尾添加如下内容
# hbase
export Hbase_HOME=/book/install/hbase-1.2.0-cdh5.14.2
export PATH=$PATH:$Hbase_HOME/bin
  • 重新编译/etc/profile,让环境变量生效
source /etc/profile
1.6 Hbase的启动与停止
  • 需要提前启动HDFS及ZooKeeper集群
  • 第一台机器bigdatanode01(Hbase主节点)执行以下命令,启动Hbase集群
[book@bigdatanode01 ~]$ /book/install/hbase-1.2.0-cdh5.14.2/bin/start-hbase.sh
  • 启动完后,jps查看Hbase相关进程
    bigdatanode01、bigdatanode02上有进程HMaster、HRegionServer
    bigdatanode03上有进程HRegionServer

  • 警告提示:Hbase启动的时候会产生一个警告,这是因为jdk7与jdk8的问题导致的,如果linux服务器安装jdk8就会产生这样的一个警告

  • 可以注释掉所有机器的hbase-env.sh当中的
    “Hbase_MASTER_OPTS”和“Hbase_REGIONSERVER_OPTS”配置 来解决这个问题。
    不过警告不影响我们正常运行,可以不用解决

  • 我们也可以执行以下命令,单节点启动相关进程

#HMaster节点上启动HMaster命令
hbase-daemon.sh start master

#启动HRegionServer命令
hbase-daemon.sh start regionserver
1.7 访问WEB页面
  • 浏览器页面访问
    http://bigdatanode01:60010
1.8 停止Hbase集群

虚拟机停止Hbase集群的正确顺序

  • bigdatanode01上运行,关闭hbase集群
[book@bigdatanode01 ~]$ stop-hbase.sh

  • 关闭ZooKeeper集群
  • 关闭Hadoop集群
  • 关闭虚拟机
  • 关闭电脑

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5677102.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存