立即注册
登录
About云-梭伦科技
返回首页
admin的个人空间
https://www.aboutyun.com/?1
[收藏]
[复制]
[分享]
[RSS]
空间首页
动态
记录
日志
相册
主题
分享
留言板
个人资料
导读
淘贴
博客
群组
社区VIP
APP下载
今日排行
本周排行
本周热帖
本月排行
本月热帖
会员排行
首页
Portal
专题
BBS
面试
办公|编程助手
更多
我的空间
好友
帖子
收藏
道具
勋章
任务
动态
日志
相册
分享
记录
留言板
群组
导读
日志
Apache Flink如何管理Kafka消费者offsets
已有 4054 次阅读
2018-10-17 18:04
|
系统分类:
Flink
问题导读
1.Flink与kafka一起如何做Checkpointing ?
2.发生故障,Flink如何恢复的?
3.Kafka consumer offsets存储在什么位置?
关注最新经典文章,欢迎关注公众号
此篇出现一个词barriers ,需要对flink有一定的了解可参考
Flink实时性、容错机制、窗口等介绍
http://www.aboutyun.com/forum.php?mod=viewthread&tid=25540
下面一些词简单解释:
1.检查点对应Checkpointing
2.主题对应Topic
3.Job对应工作
######################
在我们这篇文章中,我们将逐步说明Apache Flink如何与Apache Kafka协同工作,以确保Kafka主题(Topic)的记录exactly-once 保证进行处理。
检查点(Checkpointing )是Apache Flink的内部机制,可以从故障中恢复。检查点是Flink应用程序状态的一致副本,包括输入的读取位置。如果发生故障,Flink将通过从检查点加载应用程序状态并从恢复的读取位置继续恢复应用程序,就像没有发生任何事情一样。可以将检查点视为保存计算机游戏的当前状态。如果你在游戏中保存了自己的位置后发生了什么事情,你可以随时回过头再试一次。
检查点(Checkpoints )使Apache Flink具有容错能力,并确保在发生故障时保留流应用程序的语义。应用程序可以定期触发检查点。
Apache Flink中的Kafka消费者将Flink的检查点机制与有状态运算符集成在一起,其状态是所有Kafka分区中的读取偏移量。触发检查点时,每个分区的偏移量都存储在检查点中。 Flink的检查点机制确保所有operator 任务的存储状态是一致的,即它们基于相同的输入数据。当所有operator 任务成功存储其状态时,检查点完成。因此,当从潜在的系统故障重新启动时,系统提供一次性状态更新保证。
下面我们将介绍Apache Flink如何在逐步指南中检查Kafka消费者offsets。在我们的示例中,数据存储在Flink的Job Master中。值得注意的是,在POC或production 用例下,数据通常存储在外部文件存储器(如HDFS或S3)中。
第一步:
下面的示例从Kafka主题中读取两个分区,每个分区包含“A”,“B”,“C”,“D”,“E”作为消息。 我们将两个分区的偏移量设置为零。
第二步:
在第二步中,Kafka消费者开始从分区0读取消息。消息“A”在 “in-flight”处理,第一个消费者的偏移量变为1。
第三步:
在第三步中,消息“A”到达Flink Map Task。 两个消费者都读取他们的下一个记录(partition 0的消息“B”和partition 1的消息“A”)。 两个分区的偏移量分别更新为2和1。 与此同时,Flink的Job Master决定在源头触发检查点。
第四步:
在接下来的步骤中,Kafka consumer 任务已经创建了状态的快照(“offset = 2,1”),现在存储在Apache Flink的Job Master中。 源分别在来自分区0和1的消息“B”和“A”之后发出检查点barriers 。 检查点barriers (障碍)用于对齐所有operator 任务的检查点,并保证整个检查点的一致性。 消息“A”到达Flink Map Task,而top consumer 继续读取其下一条记录(消息“C”)。
第五步:
此步骤显示Flink Map Task从两个源和检查点接收Checkpoints barriers 。 与此同时,消费者(consumers )继续从Kafka分区阅读更多events 。
第六步:
此步骤显示Flink Map Task在检查其状态后与Flink Job Master进行通信。 当Job 的所有任务确认其状态为检查点时, Job Master 完成检查点。 从现在开始,检查点可用于从故障中恢复。 值得一提的是,Apache Flink不依赖于Kafka偏移来恢复潜在的系统故障。
在发生故障时恢复
如果发生故障(例如,worker故障),则重新启动所有operator任务,并将其状态重置为上次完成的检查点。
Kafka源分别从偏移量2和1开始,因为这是完成的检查点的偏移量。 当作业重新启动时,我们可以期待正常的系统操作,就好像之前没有发生故障一样。
路过
雷人
握手
鲜花
鸡蛋
收藏
分享
邀请
举报
全部
作者的其他最新日志
•
ChatGPT拿到阿里年薪70万的offer
•
弹簧集成-sftp-spring-boot
•
About云VIP面试提升课程介绍
•
彻底打通实时数据仓库该如何实现及多种技术架构解析
•
phoenix集成hbase后,插入hbase数据,为何查询不到
•
零基础入门Flink CEP
评论 (
0
个评论)
涂鸦板
您需要登录后才可以评论
登录
|
立即注册
评论
admin
加为好友
给我留言
打个招呼
发送消息
关闭
推荐
/2
中文版ChatGPT
1.无需魔法 2.提高编程效率 3.提高文档能力
查看 »
新手帮助
新手帮助:注册遇到问题,领取资源,加入铁粉群,不会使用搜索,如何获取积分等
查看 »
意见
反馈