1.hbase插入数据后,为何phoenix不能识别? 2.phoenix索引是如何组成的? 3.如何通过API实现? 问题描述: 用户访问的数据接口直接走Phoenix,Phoenix的表是映射hbase产生,Phoenix的表会建很多索引,这时候问题就出现了,正常通过接口直接写数据进Phoenix表,相应的索引表也是会更新的,但是直接写数据到底层hbase表,这时候对应的索引表是不会更新,从而影响正常的用户访问 直接通过API把数据写入Phoeinx是正常的,如下图: 直接写数据到Hbase,索引是不会更新的,如下图: 解决: 如果数据是直接写进Hbase的,数据写进主数据表的时候,往索引表也写一份,这样,外部接口访问Phoenix的数据就正常了,如图: 这里说一下索引表的数据该怎么写: 这是我在phoenix里建的索引表,表字段如下 对应Hbase的表如下: 这时候会发现: phoenix的索引表会把所有索引字段+ID拼接起来写进Hbase ,做为RowKey 格式:name\x00ID 所以我们写数据进索引表就很简单了,我们插入主表数据的同时,把相应索引字段拼接起来插进索引表 举例: 1、先插一条数据到住表nt_member这里测试,我只插两个字段,一个ID,一个name 2、 这时候去Phoenix查主表数据如下: 索引表数据如下: 结果:索引表没更新,主表也查不到这条数据 3、往Hbase对应索引表插一条数据 (备注:注意,这里rowkey是双引号,如果是单引号会把‘\’转译掉,插入的数据就不对了) 4、 再次查询Phoenix表 先看索引表: 数据进来了 再看主表: 数据也能查到了 备注:其实数据在我们第一步做完之后,就已经进主表了,只是因为我们没有更新索引表,导致我们在Phoenix中的查询只要命中了那条没有更新的索引,查出来的数据就是有误的 API操作hbase 最后:操作起来很简单,就是插rowkey中的\x00的时候要注意方式,下面是java调API往Hbase表里插\x00的一个例子: 由于场景需要,需要向hbase中插入包含‘\x00’的rowkey,例: 起初以为直接以拼接字符串的形式往里插就可以,但是读源码发现hbase会对\做二进制转译,如下: ‘\’会被转译为\x5c 解决办法:我们在插入数据的时候直接以byte[] 的形式往hbase表插,代码如下: public class Test_DESC { public static void main(String[] args) throws IOException { System.setProperty("spark.serializer", "org.apache.spark.serializer.KryoSerializer"); System.setProperty("hadoop.home.dir", "C:\\hadoop-2.6.0-cdh5.11.0"); Configuration hbaseConf = HBaseConfiguration.create(); hbaseConf.set("hbase.zookeeper.quorum","zt01:2181,zt02:2181,zt03:2181"); HTable htabe = new HTable(hbaseConf,"INDEX_SDC_TEST"); ByteArrayOutputStream bout = new ByteArrayOutputStream(); byte[] a = Bytes.toBytes("hello"); byte b = (byte) 0; byte[] c = new byte[] {b}; byte[] d = Bytes.toBytes("999"); byte[] e = ArrayUtils.addAll(a,c); byte[] indexColumnKey1 = ArrayUtils.addAll(e,d); Put put = new Put(indexColumnKey1); put.add(Bytes.toBytes("0"), Bytes.toBytes("_0"), Bytes.toBytes("x")); htabe.put(put); } } 最新经典文章,欢迎关注公众号 作者:TracyGao01 来源:CSDN 原文:https://blog.csdn.net/u012551524/article/details/79575632 版权声明:本文为博主原创文章,转载请附上博文链接! |
|小黑屋|about云开发-学问论坛|社区 ( 京ICP备12023829号 )
GMT+8, 2019-6-28 19:50 , Processed in 0.607383 second(s), 31 queries , Gzip On.