HBase使用与Hadoop相同的配置系统,所有配置文件都位于 conf/ 目录中,需要保持群集中每个节点的同步。
在对HBase进行配置,即编辑hbase-site.xml文件时,确保语法正确且XML格式良好。我们可以使用 xmllint 检查XML格式是否正确,默认情况下, xmllint 重新流动并将XML打印到标准输出。如果检查格式是否正确,并且只在存在错误时才打印输出,可以使用以下命令:
当在完全分布式环境下运行HBase时,在对HBase配置文件进行修改后,确保将 /conf/ 目录下的配置文件同步到集群其他节点上,可以使用 rsync 、 scp 或其他安全机制将配置文件复制到其他节点上。(对于大多数配置,服务器需要重新启动配置才能生效)
对于hbase的可视化界面,目前比较好用的就是hue的了,刚好cdh自带了hue所以配置器来比较方便,这里记录一下配置步骤
按照这篇文章的配置已经后还需要进行HBase Thrift Server的配置
https://blog.csdn.net/jmx_bigdata/article/details/83146864
在cdh管理界面依次点击HBase->实例->添加角色实例->HBase Thrift Server 选择机器安装服务
勾选刚刚添加的HBase Thrift Server服务在已选定的 *** 作中选择启动
之后在hue配置中搜索hbase 在HBase Thrift Server项中选择你刚才创建的服务就可以了。
Date:2020/12/22Version:Spark 3.0java 1.8.0_221Hbase 1.3.6Scala 2.12.11
1、首先是pom.xml,注释了一些东西,比如 不用 添加hbase-client和hbase-server,java中写MapReduce *** 作hbase需要这两个,scala写spark *** 作hbase不需要这两个,程序跑不起来,sc无法创建。
2、将hbase的lib中的以下jar文件添加进来。(to IDEA小白 :可以新建一个文件夹保存这些jar文件,在IDEA中添加一个java的library指向这个文件夹)
3、将hbase中的配置文件hbase-site.xml添加到项目中的resources文件夹中
4、测试spark连接hbase
运行后的结果:
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)