分享

利用twemproxy来集群redis

guofeng 发表于 2013-12-15 07:34:47 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 0 9028
本帖最后由 pig2 于 2013-12-15 12:08 编辑

twemproxytwitter开源的 一个工具,通过 一些简单的配置可以实现Redis集群.
Twemproxy通过引入 一个代理层,可以将其后端的多台Redis 实例进行统 一管理与分配,使应⽤用程序只需要在Twemproxy 上进行操作,而不用关心后面具体有多少个真实的 Redis.下面给大家详细介绍一下:
twemproxy功能介绍
我们知道,无论是 Memcached 还是当前的 Redis,其本身都不具备分布式集群特性,当我们有大量 Redis 或 Memcached 的时候,通常只能通过客户端的一些数据分配算法(比如一致性哈希),来实现集群存储的特性。
Twemproxy 通过引入一个代理层,可以将其后端的多台 Redis 或 Memcached 实例进行统一管理与分配,使应用程序只需要在 Twemproxy 上进行操作,而不用关心后面具体有多少个真实的 Redis 或 Memcached 存储。
在 Redis 的 Cluster 方案还没有正式推出之前,通过 Proxy 的方式来实现存储集群可能是最好的选择了。更何况 Twemproxy 是通过 Twitter 自身得到了充分检验的产品。
性能根据 Redis 作者的测试结果,在大多数情况下,Twemproxy 的性能相当不错,直接操作 Redis 相比,最多只有20%的性能损失。这对于它带来的好处来说真的是微不足道了。唯一可能还有待改进的是其 MGET 操作的效率,其性能只有直接操作 Redis 的 50%。
安装与配置Twemproxy 的安装有点小麻烦,主要命令如下:
  1. apt-get install automake
  2. apt-get install libtool
  3. git clone git://github.com/twitter/twemproxy.git
  4. cd twemproxy
  5. autoreconf -fvi
  6. ./configure --enable-debug=log
  7. make
  8. src/nutcracker -h
复制代码
通过上面的命令就算安装好了,然后是具体的配置,下面是一个典型的配置
  1. redis1:
  2. listen: 0.0.0.0:9999 #使用哪个端口启动Twemproxy
  3. redis: true #是否是Redis的proxy
  4. hash: fnv1a_64 #指定具体的hash函数
  5. distribution: ketama #具体的hash算法
  6. auto_eject_hosts: true #是否在结点无法响应的时候临时摘除结点
  7. timeout: 400 #超时时间(毫秒)
  8. server_retry_timeout: 2000 #重试的时间(毫秒)
  9. server_failure_limit: 1 #结点故障多少次就算摘除掉
  10. servers: #下面表示所有的Redis节点(IP:端口号:权重)
  11. - 127.0.0.1:6379:1
  12. - 127.0.0.1:6380:1
  13. - 127.0.0.1:6381:1
  14. - 127.0.0.1:6382:1
  15. redis2:
  16. listen: 0.0.0.0:10000
  17. redis: true
  18. hash: fnv1a_64
  19. distribution: ketama
  20. auto_eject_hosts: false
  21. timeout: 400
  22. servers:
  23. - 127.0.0.1:6379:1
  24. - 127.0.0.1:6380:1
  25. - 127.0.0.1:6381:1
  26. - 127.0.0.1:6382:1
复制代码
你可以同时开启多个 Twemproxy 实例,他们都可以进行读写,这样你的应用程序就可以完全避免所谓的单点故障。
问题与不足Twemproxy 由于其自身原理限制,有一些不足之处,如:

  • 不支持针对多个值的操作,比如取sets的子交并补等(MGET 和 DEL 除外)
  • 不支持Redis的事务操作
  • 出错提示还不够完善
以上希望给大家一些帮助。

没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条