分享

HBase修改压缩格式及Snappy压缩实测分享

xioaxu790 2014-10-11 09:19:44 发表于 实操演练 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 0 12965
问题导读
1、什么是Snappy呢?
2、如何修改HBase压缩算法?
3、如何进行结果的测试?






一、要点
有关Snappy的相关介绍可参看Hadoop压缩-SNAPPY算法,如果想安装Snappy,可以参看Hadoop HBase 配置 安装 Snappy 终极教程
1. HBase修改Table压缩格式步骤
2. 实测结果分享


二、HBase修改Table压缩格式步骤
修改HBase压缩算法很简单,只需要如下几步:

1. hbase shell命令下,disable相关表:
  1. disable 'test'
复制代码


实际产品环境中,’test’表可能很大,例如上几十T的数据,disable过程会比较缓慢,需要等待较长时间。disable过程可以通过查看hbase master log日志监控。

2. 修改表的压缩格式
  1. alter 'test', NAME => 'f', COMPRESSION => 'snappy'
复制代码


NAME即column family,列族。HBase修改压缩格式,需要一个列族一个列族的修改。而且这个地方要小心,别将列族名字写错,或者大小写错误。因为这个地方任何错误,都会创建一个新的列族,且压缩格式为snappy。当然,假如你还是不小心创建了一个新列族的话,可以通过以下方式删除:
  1. alter 'test', {NAME=>'f', METHOD=>'delete'}
复制代码


同样提醒,别删错列族,否则麻烦又大了~

3. 重新enable表
  1. enable 'test'
复制代码


4. enable表后,HBase表的压缩格式并没有生效,还需要一个动作,即HBase major_compact
  1. major_compact 'test'
复制代码

该动作耗时较长,会对服务有很大影响,可以选择在一个服务不忙的时间来做。
describe一下该表,可以看到HBase 表压缩格式修改完毕。


二、 实测结果分享
1. 线上有一个稍微大些的表,压测前的大小是

  1. [xxxx]hadoop fs -du /hbase/tablename
  2. 37225209575949    hdfs://xxxx:9000/hbase/tablename
复制代码

也即33.85613088171249T

2. 等最终major_compact完毕后,数据大小为
  1. [xxxx]hadoop fs -du /hbase/tablename
  2. 14910587650937    hdfs://xxxx:9000/hbase/tablename
复制代码

即剩余13.56110046884805T,压缩掉20.29503041286444T

3. 实测情况下,remaining为:
  1. 13.56110046884805/33.85613088171249 = 40.055%
复制代码

跟网上流传的最好效果22.2%还是有一定差距的。但是Google Snappy官网上也说,为达到更高的压缩速度,Snappy允许损失一些压缩率。

有一点需要说明,因为是线上服务,所以在修改压缩格式后,至comact结束,中间有入库操作,大概有一周到两周的数据入库。也就是说,实际值要比40.055%小一些,但是应该影响不太大。

没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条