1.两两节点之间免密并且时间同步
这个网上有可以查
2.上传解压包,配置Hbase环境变量
在node4节点,上传解压到路径:/software/hbase-1.2.9
tar -zxvf hbase-1.2.9-bin.tar.gz
在node4节点上vim /etc/profile,写入如下内容:
export Hbase_HOME=/software/hbase-1.2.9
export PATH=
P
A
T
H
:
PATH:
PATH:Hbase_HOME/bin
source /etc/profile
3.进入
H
base
H
O
M
E
路
径
,
在
Hbase_HOME路径,在
HBASEHOME路径,在Hbase_HOME/conf/hbase-env.sh 中:
导入java_home:export JAVA_HOME=/software/jdk1.8.0_181
修改不使用Hbase自带的zookeeper:export Hbase_MANAGES_ZK=false
4.删除由于jdk8永久代不由JVM管理的配置参数,防止启动Hbase时有警告
进入$Hbase_HOME/conf/hbase-env.sh中:
删除46、47行中的-XX:PermSize=128m -XX:MaxPermSize=128m
5.修改Hbase-site.xml 文件,写入如下内容:
hbase.rootdir hdfs://mycluster/hbase hbase.cluster.distributed true hbase.zookeeper.quorum mynode3,mynode4,mynode5
6.修改regionservers配置regionServer节点,最好配置到datanode节点上,写入如下内容:
mynode3
mynode4
mynode5
7.配置$Hbase_HOME/conf/backup-masters ,指定备用的HMaster,需要手动创建文件:
写入mynode5,在Hbase任意节点都可以启动HMaster,都可以成为备用Master ,可以使用命令:hbase-daemon.sh start master启动
8.将$HADOOP_HOME/etc/hadoop/hdfs-site.xml复制到 $Hbase_HOME/conf/下
scp /software/hadoop-2.5.2/etc/hadoop/hdfs-site.xml /software/hbase-1.2.9/conf
9.将Hbase安装包发送到mynode3,mynode5节点上。在mynode3,mynode5中配置Hbase的环境变量
10.启动Hbase集群,在mynode4节点上执行命令:start-hbase.sh
访问webui:mynode4:16010
11.mynode3,mynode4,mynode5任意一台节点使用命令 : stop-hbase.sh 停止Hbase集群。
=================== Hbase 使用
help:查看帮助
hbase shell :进入hbase
create ‘htable’,‘cf1’,‘cf2’ : 创建表htable 两个列族
list : 查看hbase中的table
distable ‘htable’ : 关闭表,使表不可用
drop ‘htable’:删除表
desc ‘htable’:查看表的描述
list_namespace:查看命名空间
scan ‘命名空间:htable’:扫描表所有内容
count ‘htable’:以1000行为单位统计行数
put ‘mytable’,‘myrow1’,‘cf1:mycol1’,‘myvale1’ : 存入数据
get ‘mytable’,‘myrow1’ :获取数据
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)