Phoenix是Hbase的开源SQL皮肤。可以使用标准JDBC API代替Hbase客户端API来创建表,插入数据和查询Hbase数据。
Phoenix特点1)容易集成:如Spark, Hive, Pig, Flume和Map Reduce;
2) *** 作简单:DML命令以及通过DDL命令创建和 *** 作表和版本化增量更改;
3)支持Hbase二级索引创建。
1)官网地址:https://phoenix.apache.org/
2)上传解压:tar -zxvf /opt/software/apache-phoenix-5.0.0-Hbase-2.0-bin.tar.gz -C /opt/module/
3)改名:mv /opt/module/apache-phoenix-5.0.0-Hbase-2.0-bin/ /opt/module/phoenix
4)添加环境变量:sudo vim /etc/profile.d/my_env.sh
#PHOENIX_HOME export PHOENIX_HOME=/opt/module/phoenix export PATH= $PATH:$PHOENIX_HOME/bin
source /etc/profile
5)复制server包并拷贝到各个节点的hbase/lib
cp /opt/module/phoenix/phoenix-5.0.0-Hbase-2.0-server.jar /opt/module/hbase/lib/
xsync /opt/module/hbase/lib/phoenix-5.0.0-Hbase-2.0-server.jar
6)重启Hbase,连接phoenix
sqlline.py hadoop102,hadoop103,hadoop104:2181
1)显示所有表
!table 或 !tables
2)创建表
直接指定单个列作为RowKey
CREATE TABLE IF NOT EXISTS student(id VARCHAR primary key,ename VARCHAR);
在phoenix中,表名等会自动转换为大写,若要小写,使用双引号,如"us_ population"。
指定多个列的联合作为RowKeye
CREATE TABLE IF NOT EXISTS us_ population ( State CHAR(2) NOT NULL, City VARCHAR NOT NULL, Population BIGINT CONSTRAINT my_pk PRIMARY KEY (state, city));
3)插入数据
upsert into student values('1001','zhangsan');
4)查询记录
select * from student; select * from student where id ='1001';
5)删除记录
delete from student where id='1001';
6)删除表
drop table student;
7)退出
!quit
(1)表的关系
默认情况下,直接在Hbase中创建的表,通过Phoenix是查看不到的。如果要在Phoenix中 *** 作直接在Hbase中创建的表,则需要在Phoenix中进行表的映射。映射方式有两种:视图映射和表映射。
(2)命令行中创建表test
Hbase中test的表结构如下,两个列族info1、 info2
Hbase创建test表:
create ‘TEST’,‘INFO1’,‘INFO2’
put ‘TEST’,‘1001’,‘INFO1:NAME’,‘zhangsan’
put ‘TEST’,‘1001’,‘INFO2:ADDRESS’,‘beijing’
(3)视图映射
Phoenix创建的视图是只读的,所以只能用来做查询,无法通过视图对源数据进行修改等 *** 作。
在phoenix中创建关联test表的视图
create view test(id varchar primary key,info1.name varchar, info2.address varchar);
删除视图
drop view test;
(4)表映射
使用Apache Phoenix创建对Hbase的表映射,有两种方法:
a.Hbase中不存在表时,可以直接使用create table指令创建需要的表,系统将会自动在Phoenix和Hbase中创建person_ infomation的表,并会根据指令内的参数对表结构进行初始化。
b.当Hbase中已经存在表时,可以以类似创建视图的方式创建关联表,只需要将create table 改为create view即可。
1)启动queryServer服务
queryserver.py
2)创建项目并导入依赖
org.apache.phoenix phoenix-queryserver-client5.0.0-Hbase-2.0
3)代码
public class HbasePhoenixJdbc { public static void main(String[] args) throws SQLException { //获取连接地址 String connectionUrl = ThinClientUtil.getConnectionUrl("hadoop102", 8765); //创建连接 Connection connection = DriverManager.getConnection(connectionUrl); //预编译sql String sql = "select id,name,address from test"; PreparedStatement preparedStatement = connection.prepareStatement(sql); //执行查询 ResultSet resultSet = preparedStatement.executeQuery(); //解析结果 while (resultSet.next()) { System.out.println( "id:" + resultSet.getString(1) + ",name:" + resultSet.getString(2) + ",address:" + resultSet.getString(3)); } //释放资源 resultSet.close(); preparedStatement.close(); connection.close(); } }Phoenix 二级索引 Hbase协处理器(扩展)
案例需求
编写协处理器,实现在往A表插入数据的同时让Hbase自身(协处理器)向B表中插入一条数据。
实现步骤
1)创建一个maven项目,并引入以下依赖。
org.apache.hbase hbase-server2.0.5 org.apache.hbase hbase-client2.0.5
2)定义TableCoprocessor类并实现RegionObserver, RegionCoprocessor接口
public class TableCoprocessor implements RegionObserver, RegionCoprocessor { @Override public OptionalgetRegionObserver() { return Optional.of(this); } @Override public void postPut(ObserverContext c, Put put, WALEdit edit, Durability durability) throws IOException { //获取配置信息 Configuration configuration = HbaseConfiguration.create(); configuration.set("hbase.zookeeper.quorum", "hadoop102,hadoop103,hadoop104"); //获取连接 Connection connection = ConnectionFactory.createConnection(configuration); //获取表对象 Table table = connection.getTable(TableName.valueOf("stu")); //插入数据 table.put(put); //释放资源 table.close(); connection.close(); } }
3)创建Hbase建表API并注册协处理器
public class HbaseAPI{ private static Connection connection; private static Admin admin; static { //创建配置信息,指定连接集群 Configuration configuration = HbaseConfiguration.create(); configuration.set("hbase.zookeeper.quorum","hadoop102,hadoop103,hadoop104"); try { //创建连接器 connection = ConnectionFactory.createConnection(configuration); //创建DDL *** 作对象 admin = connection.getAdmin(); } catch (IOException e) { e.printStackTrace(); } } public static void close(){ try { //关闭连接 admin.close(); connection.close(); } catch (IOException e) { e.printStackTrace(); } } //创建表 public static void createTable(String tableName,String... args){ //判断是否有列族信息 if (args.length <=0){ System.out.println("请输入列族信息!"); return; } //判断表是否存在 if (isTableExist(tableName)){ System.out.println(tableName+"表已存在"); return; } //创建表描述器 TableDescriptorBuilder builder = TableDescriptorBuilder.newBuilder(TableName.valueOf(tableName)); //放入列族信息 for (String arg : args) { //创建列族描述器 ColumnFamilyDescriptor familyDescriptor = ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes(arg)).build(); builder.setColumnFamily(familyDescriptor); } //注册协处理器 try { builder.setCoprocessor("com.xiaoqiu.TableCoprocessor"); } catch (IOException e) { e.printStackTrace(); } TableDescriptor tableDescriptor = builder.build(); //创建表 try { admin.createTable(tableDescriptor); } catch (IOException e) { e.printStackTrace(); } } public static void main(String[] args) throws IOException { createTable("stu1","info"); close(); } }
4)Hbase中创建stu表:create ‘stu’,‘info’
5)打包工程上传到hbase的lib目录下
6)重启hbse
7)运行Hbase建表API,创建stu1表(为了方便测试,两个表结构一致)
8)hbase中向stu1插入数据:put ‘stu1’,‘1001’,‘info:name’,‘zhangsan’
9)查看stu表和stu1表
1)添加如下配置到Hbase的HRegionserver节点的hbase-site.xml
vim /opt/module/hbase/conf/hbase-site.xml
hbase.regionserver.wal.codec org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec hbase.region.server.rpc.scheduler.factory.class org.apache.hadoop.hbase.ipc.PhoenixRpcSchedulerFactory Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates hbase.rpc.controllerfactory.class org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates
2)分发xsync /opt/module/hbase/conf/hbase-site.xml
3)重启hbase
Global Index是默认的索引格式,创建全局索引时,会在Hbase中建立一张新表。 也就是说索引数据和数据表是存放在不同的表中的,因此全局索引适用于多读少写的业务场景。
写数据的时候会消耗大量开销,因为索引表也要更新,而索引表是分布在不同的数据节点上的,跨节点的数据传输带来了较大的性能消耗。
在读数据的时候Phoenix会选择索引表来降低查询消耗的时间。
1)创建单个字段的全局索引
CREATE INDEX 索引名 ON 表 (字段);
例:
创建表
create table staff (id varchar primary key,name varchar,age varchar,sex varchar, addr varchar) ;
创建索引
create index staff_name_index on staff(name);
如果想查询的字段不是索引字段的话索引表不会被使用,也就是说不会带来查询速度的提升。
2)创建携带其他字段的全局索引
CREATE INDEX 索引名 ON 表 (字段) INCLUDE (字段1,字段2,.....);
例:
create index staff_ageIncludeSex_index on staff(age) INCLUDE (sex);
Local Index适用于写 *** 作频繁的场景。
索引数据和数据表的数据是存放在同一张表中(且是同一个Region),避免了在写 *** 作的时候往不同服务器的索引表中写索引带来的额外开销。查询的字段不是索引字段索引表也会被使用,这会带来查询速度的提升。
CREATE LOCAL INDEX 索引名 ON 表 (字段);
例:
create local index local_addr_index on staff(addr);
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)