分享

Kafka线上集群部署方案怎么做?

问题导读:
1.生产环境中应该把Kafka安装到什么操作系统上?
2.在对Kafka集群进行磁盘规划时应该选择普通的机械磁盘还是固态硬盘?
3.Kafka集群到底需要多大的存储空间?
4.如何规划的是所需的Kafka服务器的数量?

专栏前面几期内容,我分别从Kafka的定位、版本的变迁以及功能的演进等几个方面循序渐进地梳理了Apache Kafka的发展脉络。通过这些内容,我希望你能清晰地了解Kafka是用来做什么的,以及在实际生产环境中该如何选择Kafka版本,更快地帮助你入门Kafka。

现在我们就来看看在生产环境中的Kafka集群方案该怎么做。既然是集群,那必然就要有多个Kafka节点机器,因为只有单台机器构成的Kafka伪集群只能用于日常测试之用,根本无法满足实际的线上生产需求。而真正的线上环境需要仔细地考量各种因素,结合自身的业务需求而制定。下面我就分别从操作系统、磁盘、磁盘容量和带宽等方面来讨论一下。

操作系统

首先我们先看看要把Kafka安装到什么操作系统上。说起操作系统,可能你会问Kafka不是JVM系的大数据框架吗?Java又是跨平台的语言,把Kafka安装到不同的操作系统上会有什么区别吗?其实区别相当大!

的确,如你所知,Kafka由Scala语言和Java语言编写而成,编译之后的源代码就是普通的“.class”文件。本来部署到哪个操作系统应该都是一样的,但是不同操作系统的差异还是给Kafka集群带来了相当大的影响。目前常见的操作系统有3种:Linux、Windows和macOS。应该说部署在Linux上的生产环境是最多的,也有一些Kafka集群部署在Windows服务器上。Mac虽然也有macOS Server,但是我怀疑是否有人(特别是国内用户)真的把生产环境部署在Mac服务器上。

如果考虑操作系统与Kafka的适配性,Linux系统显然要比其他两个特别是Windows系统更加适合部署Kafka。虽然这个结论可能你不感到意外,但其中具体的原因你也一定要了解。主要是在下面这三个方面上,Linux的表现更胜一筹。

  • I/O模型的使用
  • 数据网络传输效率
  • 社区支持度

我分别来解释一下,首先来看I/O模型。什么是I/O模型呢?你可以近似地认为I/O模型就是操作系统执行I/O指令的方法。

主流的I/O模型通常有5种类型:阻塞式I/O、非阻塞式I/O、I/O多路复用、信号驱动I/O和异步I/O。每种I/O模型都有各自典型的使用场景,比如Java中Socket对象的阻塞模式和非阻塞模式就对应于前两种模型;而Linux中的系统调用select函数就属于I/O多路复用模型;大名鼎鼎的epoll系统调用则介于第三种和第四种模型之间;至于第五种模型,其实很少有Linux系统支持,反而是Windows系统提供了一个叫IOCP线程模型属于这一种。

你不必详细了解每一种模型的实现细节,通常情况下我们认为后一种模型会比前一种模型要高级,比如epoll就比select要好,了解到这一程度应该足以应付我们下面的内容了。

说了这么多,I/O模型与Kafka的关系又是什么呢?实际上Kafka客户端底层使用了Java的selector,selector在Linux上的实现机制是epoll,而在Windows平台上的实现机制是select。因此在这一点上将Kafka部署在Linux上是有优势的,因为能够获得更高效的I/O性能。

其次是网络传输效率的差别。你知道的,Kafka生产和消费的消息都是通过网络传输的,而消息保存在哪里呢?肯定是磁盘。故Kafka需要在磁盘和网络间进行大量数据传输。如果你熟悉Linux,你肯定听过零拷贝(Zero Copy)技术,就是当数据在磁盘和网络进行传输时避免昂贵的内核态数据拷贝从而实现快速地数据传输。Linux平台实现了这样的零拷贝机制,但有些令人遗憾的是在Windows平台上必须要等到Java 8的60更新版本才能“享受”到这个福利。一句话总结一下,在Linux部署Kafka能够享受到零拷贝技术所带来的快速数据传输特性。

最后是社区的支持度。这一点虽然不是什么明显的差别,但如果不了解的话可能比前两个因素对你的影响更大。简单来说就是,社区目前对Windows平台上发现的Kafka Bug不做任何承诺。虽然口头上依然保证尽力去解决,但根据我的经验,Windows上的Bug一般是不会修复的。因此,Windows平台上部署Kafka只适合于个人测试或用于功能验证,千万不要应用于生产环境。

磁盘

如果问哪种资源对Kafka性能最重要,磁盘无疑是要排名靠前的。在对Kafka集群进行磁盘规划时经常面对的问题是,我应该选择普通的机械磁盘还是固态硬盘?前者成本低且容量大,但易损坏;后者性能优势大,不过单价高。我给出的建议是使用普通机械硬盘即可。

Kafka大量使用磁盘不假,可它使用的方式多是顺序读写操作,一定程度上规避了机械磁盘最大的劣势,即随机读写操作慢。从这一点上来说,使用SSD似乎并没有太大的性能优势,毕竟从性价比上来说,机械磁盘物美价廉,而它因易损坏而造成的可靠性差等缺陷,又由Kafka在软件层面提供机制来保证,故使用普通机械磁盘是很划算的。

关于磁盘选择另一个经常讨论的话题就是到底是否应该使用磁盘阵列(RAID)。使用RAID的两个主要优势在于:

  • 提供冗余的磁盘存储空间
  • 提供负载均衡

以上两个优势对于任何一个分布式系统都很有吸引力。不过就Kafka而言,一方面Kafka自己实现了冗余机制来提供高可靠性;另一方面通过分区的概念,Kafka也能在软件层面自行实现负载均衡。如此说来RAID的优势就没有那么明显了。当然,我并不是说RAID不好,实际上依然有很多大厂确实是把Kafka底层的存储交由RAID的,只是目前Kafka在存储这方面提供了越来越便捷的高可靠性方案,因此在线上环境使用RAID似乎变得不是那么重要了。综合以上的考量,我给出的建议是:

  • 追求性价比的公司可以不搭建RAID,使用普通磁盘组成存储空间即可。
  • 使用机械磁盘完全能够胜任Kafka线上环境。

磁盘容量

Kafka集群到底需要多大的存储空间?这是一个非常经典的规划问题。Kafka需要将消息保存在底层的磁盘上,这些消息默认会被保存一段时间然后自动被删除。虽然这段时间是可以配置的,但你应该如何结合自身业务场景和存储需求来规划Kafka集群的存储容量呢?

我举一个简单的例子来说明该如何思考这个问题。假设你所在公司有个业务每天需要向Kafka集群发送1亿条消息,每条消息保存两份以防止数据丢失,另外消息默认保存两周时间。现在假设消息的平均大小是1KB,那么你能说出你的Kafka集群需要为这个业务预留多少磁盘空间吗?

我们来计算一下:每天1亿条1KB大小的消息,保存两份且留存两周的时间,那么总的空间大小就等于1亿 *1KB * 2 / 1000 / 1000 = 200GB。一般情况下Kafka集群除了消息数据还有其他类型的数据,比如索引数据等,故我们再为这些数据预留出10%的磁盘空间,因此总的存储容量就是220GB。既然要保存两周,那么整体容量即为220GB * 14,大约3TB左右。Kafka支持数据的压缩,假设压缩比是0.75,那么最后你需要规划的存储空间就是0.75 * 3 = 2.25TB。

总之在规划磁盘容量时你需要考虑下面这几个元素:

  • 新增消息数
  • 消息留存时间
  • 平均消息大小
  • 备份数
  • 是否启用压缩

带宽

对于Kafka这种通过网络大量进行数据传输的框架而言,带宽特别容易成为瓶颈。事实上,在我接触的真实案例当中,带宽资源不足导致Kafka出现性能问题的比例至少占60%以上。如果你的环境中还涉及跨机房传输,那么情况可能就更糟了。

如果你不是超级土豪的话,我会认为你和我平时使用的都是普通的以太网络,带宽也主要有两种:1Gbps的千兆网络和10Gbps的万兆网络,特别是千兆网络应该是一般公司网络的标准配置了。下面我就以千兆网络举一个实际的例子,来说明一下如何进行带宽资源的规划。

与其说是带宽资源的规划,其实真正要规划的是所需的Kafka服务器的数量。假设你公司的机房环境是千兆网络,即1Gbps,现在你有个业务,其业务目标或SLA是在1小时内处理1TB的业务数据。那么问题来了,你到底需要多少台Kafka服务器来完成这个业务呢?

让我们来计算一下,由于带宽是1Gbps,即每秒处理1Gb的数据,假设每台Kafka服务器都是安装在专属的机器上,也就是说每台Kafka机器上没有混布其他服务,毕竟真实环境中不建议这么做。通常情况下你只能假设Kafka会用到70%的带宽资源,因为总要为其他应用或进程留一些资源。

根据实际使用经验,超过70%的阈值就有网络丢包的可能性了,故70%的设定是一个比较合理的值,也就是说单台Kafka服务器最多也就能使用大约700Mb的带宽资源。

稍等,这只是它能使用的最大带宽资源,你不能让Kafka服务器常规性使用这么多资源,故通常要再额外预留出2/3的资源,即单台服务器使用带宽700Mb / 3 ≈ 240Mbps。需要提示的是,这里的2/3其实是相当保守的,你可以结合你自己机器的使用情况酌情减少此值。

好了,有了240Mbps,我们就可以计算1小时内处理1TB数据所需的服务器数量了。根据这个目标,我们每秒需要处理2336Mb的数据,除以240,约等于10台服务器。如果消息还需要额外复制两份,那么总的服务器台数还要乘以3,即30台。

怎么样,还是很简单的吧。用这种方法评估线上环境的服务器台数是比较合理的,而且这个方法能够随着你业务需求的变化而动态调整。

小结

所谓“兵马未动,粮草先行”。与其盲目上马一套Kafka环境然后事后费力调整,不如在一开始就思考好实际场景下业务所需的集群环境。在考量部署方案时需要通盘考虑,不能仅从单个维度上进行评估。相信今天我们聊完之后,你对如何规划Kafka生产环境一定有了一个清晰的认识。现在我来总结一下今天的重点:

1590419976(1).png

开放讨论

精选留言

  • mickle 2019-06-15 10:03:25

1000*1000/(60*60)=277,这个2336MB是怎么换算来的,还有什么要考虑的吗? [5赞]

作者回复2019-06-15 12:10:20
277MB,乘以8,大致等于2300+Mb(小b)。带宽资源一般用Mbps而不是MBps衡量

  • A_NATE_ 2019-06-15 11:42:40

我们曾经也认为用普通硬盘就行,换成普通硬盘导致生产者堵塞写入负载偏高,换成SSD就没事了,我们
每天消息数大概50亿。 [5赞]

作者回复2019-06-16 19:55:27
嗯嗯,专栏里面只是给出一个评估的方法。具体还要结合自己的实际情况来调整。通常我们认为SSD的顺
序写TPS大约是HDD的4倍。除了纵向扩展使用SSD之外,也可以尝试一下横向扩展,增加更多的broker或
HDD分散负载:)

  • 南辕北辙 2019-06-17 16:39:59

这个假设是:follower与leader处于不同的broker而实际环境中不推荐单机多broker的架构 摘自老师回复
其他同学。
老师这个的意思是不是生产上的架构通常一台服务器上只会有leader或者follow的分区,而不会二者存在
一台服务器上,所以根据带宽计算服务器数量时,根据备份数为2,所以就直接✖3了。 [2赞]

  • Eagles 2019-06-17 01:29:32

老师你好,Leader Follower 之间的数据冗余复制会不会占带宽?如果占带宽且有两个以上的follows,岂
不是把预留的2/3的带宽全部用掉了。 [2赞]

作者回复2019-06-17 08:55:04
会占带宽的,这也是预留的部分之一,就是给非业务活动留的带宽资源,包括操作系统其他进程消耗的带
宽啊。

  • Nero 2019-06-15 09:26:41

好了,有了 240Mbps,我们就可以计算 1 小时内处理 1TB 数据所需的服务器数量了。根据这个目标,我
们每秒需要处理 2336Mb 的数据, 老师这一段中2334Mb是怎么算出来的,没看懂,能否解释一下,谢
谢。 [2赞]

作者回复2019-06-15 10:39:09
1024*1024/3600*8

  • 飛哥grapefruit 2019-06-16 13:16:09

感觉有几个知识盲点:I/O模型、零拷贝和RAID。 [1赞]

  • QQ怪 2019-06-15 22:22:36

老师尽然把我模糊不清的GB和Gb的区别给复习了一遍 [1赞]

  • 曹飞 2019-06-15 11:32:07

老师您好,您文章中讲到磁盘方面可以抛弃RAID,直接使用普通磁盘上去。那么一旦这块磁盘出问题了,
数据不就丢失了吗。如果raid的话,还有其他磁盘有相应的冗余数据的。麻烦帮忙解答下,谢谢!!! [1
赞]

作者回复2019-06-16 07:43:53
Kafka 1.1开始正式支持JBOD了。再说Kafka本身在软件层面也提供了冗余的机制来对抗磁盘损坏。

  • 我自成魔 2019-06-15 09:07:28

您好!我在使用Kafka中,出现消息阻塞不消费的问题,换了消费组之后过段时间又不消费了,不知什么
原因,望老师解惑。谢谢! [1赞]

作者回复2019-06-15 10:36:58
两个可能的原因,①就是没有新消息可供消费了,②某天消息格式有问题导致解析不了了,不过这种情况
很罕见,一般是因为网络传输出问题导致

  • 墙角儿的花 2019-06-15 09:00:59

弱弱的问一句老师,“根据这个目标,我们每秒需要处理 2336Mb 的数据,除以 240,约等于 10 台服务
器”,机房入口带宽1Gbps,怎么能做到1秒处理2336Mb的数据的 [1赞]

作者回复2019-06-15 10:35:07
这里是指单机带宽,机房总带宽不可能这么小的。。。

  • Royal 2019-06-15 00:31:51

您好,我想请教下kafka metric相关的知识,比如kafka produce速率获取等 [1赞]

作者回复2019-06-15 08:33:37
kafka producer速率可以监控这个JMX指标:
kafka.producer:type=[consumer|producer|connect]-node-metrics,client-id=([-.\w]+),node-id=([0-9]+)

  • 疯琴 2019-06-17 18:32:05

老师,如果单机起多个broker是否有可能造成同一个partition的多个副本在一台机器上,损失了容灾能力


  • PK時頭髮不亂 2019-06-17 17:56:09

现在都是云服务,用的都是虚拟系统或虚拟系统的容器(docker),这种场景的部署方案跟这篇文章的物
理机相差甚远,那要怎样衡量或要注意事项呢?

  • 无菇朋友 2019-06-17 17:17:36

老师 关于分区,副本这些概念,后面会再详细讲解吗?

  • Geek_Sue 2019-06-17 14:57:04

胡老师,您好,我想请问下,我们公司的环境是基于Docker这种微服务架构,那么kafka部署在Docker容
器中部署方案是否会有一些不同呢?

  • 莫问流年 2019-06-17 09:16:03

分析带宽的时候,需要考虑副本机制带来的带宽损耗吗?或者说leader和follower之间采用不同网卡和宽
带吗?

作者回复2019-06-17 11:13:17
预留的部分已经考虑了副本机制引入的带宽了。

  • Juc 2019-06-17 08:57:47

老师请解释下:磁盘容量实际使用中建议预留20%-30%的磁盘空间包不包括为其他类型的数据(比如索
引数据等)预留出的10%的磁盘空间呢?

作者回复2019-06-17 11:12:40
预留的空间主要就是为Kafka索引文件预留的

  • 蒙开强 2019-06-17 08:34:26

老师,你好,你讲的这几个纬度很好,之前我们搭建一套kafka集群就不知道怎么去衡量,我再问一个相
关问题,我个人觉得kafka会出现丢数据情况,比如某个分区的leader挂了,在切换选举到另外副本为lea
der时,这个副本还没同步之前的leader数据,这样数据就丢了

作者回复2019-06-17 11:10:57
嗯嗯,对于producer而言,如果在乎数据持久性,那么应该设置acks=all,这样当出现你说的这个情况时
,producer会被显式通知消息发送失败,从而可以重试。

  • 疯琴 2019-06-17 08:28:10

老师,partitons的数量和硬盘的数量有匹配关系么?一块盘一个partiton比一块盘多个partiton要快么?
是线性的关系么?

作者回复2019-06-17 08:59:22
没有具体的关系。

“一块盘一个partiton比一块盘多个partiton要快么?” 没有实验数据支撑,单纯从分析角度来看我是认
同的。当某块磁盘上有太多的分区时引入了很多随机IO拖慢了性能。事实上,阿里的RocketMQ一直宣称
当单磁盘超过256分区时Kafka性能不如RocketMQ,原因也在于此。
数据来源:http://jm.taobao.org/2016/04/07/kafka-vs-rocketmq-topic-amout/

  • 电光火石 2019-06-16 22:58:17

在线上,通过kafka metric读到一个丢包率,之前一直没有想明白这个丢包是怎么出来的,broker也没有
down过,是否就是由于网络带宽被打满造成的?谢谢了!

作者回复2019-06-17 08:54:04
Kafka metrics都是应用级别的监控指标,没有这种IT级别的指标(如果咱们理解的丢包率是相同的概念的
话: )

是否可以提供完整的Kafka Metrics名字我帮查查?


最新经典文章,欢迎关注公众号



作者:胡夕
原文链接:https://time.geekbang.org/column/intro/191

已有(1)人评论

跳转到指定楼层
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条