分享

KLOOK客路旅行基于Apache Hudi的数据湖实践

问题导读:
1、现有架构有哪些改进?
2、新架构收益都有哪些?
3、Debezium 增量Binlog同步如何配置?
4、Hudi同步Metastore自定义分区格式如何改写?


1. 业务背景介绍

客路旅行(KLOOK)是一家专注于境外目的地旅游资源整合的在线旅行平台,提供景点门票、一日游、特色体验、当地交通与美食预订服务。覆盖全球100个国家及地区,支持12种语言和41种货币的支付系统,与超过10000家商户合作伙伴紧密合作,为全球旅行者提供10万多种旅行体验预订服务。KLOOK数仓RDS数据同步是一个很典型的互联网电商公司数仓接入层的需求。对于公司数仓,约60%以上的数据直接来源与业务数据库,数据库有很大一部分为托管的AWS RDS-MYSQL 数据库,有超100+数据库/实例。RDS直接通过来的数据通过标准化清洗即作为数仓的ODS层,公司之前使用第三方商业工具进行同步,限制为每隔8小时的数据同步,无法满足公司业务对数据时效性的要求,数据团队在进行调研及一系列poc验证后,最后我们选择Debezium+Kafka+Flink+Hudi的ods层pipeline方案,数据秒级入湖,后续数仓可基于近实时的ODS层做更多的业务场景需求。

2. 架构改进
2.1 改造前架构
2022-04-19_185037.jpg

整体依赖于第三服务,通过Google alooma进行RDS全量增量数据同步,每隔8小时进行raw table的consolidation,后续使用data flow 每24小时进行刷入数仓ODS层

2.2 新架构
2022-04-19_185132.jpg

    1. 使用AWS DMS 数据迁移工具,将全量RDS Mysql 数据同步至S3存储中;

    2. 通过Flink SQL Batch 作业将S3数据批量写入Hudi 表;

    3. 建立Debeizum MySQL binlog 订阅任务,将binlog 数据实时同步至Kafka;

    4. 通过Flink SQL 启动两个流作业,一个将数据实时写入Hudi,另一个作业将数据追加写入到S3,S3 binlog文件保存30天,以备数据回溯使用;

    5. 通过hive-hudi meta data sync tools,同步hudi catalog数据至Hive,通过Hive/Trino提供OLAP数据查询。

2.3 新架构收益

  • 数据使用及开发灵活度提升,地方放同步服务限制明显,改进后的架构易于扩展,并可以提供实时同步数据供其它业务使用;
  • 数据延迟问题得到解决,基于Flink on Hudi 的实时数据写入,对于RDS数据摄入数仓可以缩短至分钟甚至秒级,对于一些库存、风控、订单类的数据可以更快的进行数据取数分析,整体从原来近8小时的consolidation缩减至5分钟;
  • 成本更加可控,基于Flink on Hudi存算分离的架构,可以有效通过控制对数据同步计算处理资源配额、同步刷新数据表落盘时间、数据存储冷热归档等进行成本控制,与第三方服务成本整体对比预计可以缩减40%。

3. 实践要点
3.1 Debezium 增量Binlog同步配置

Kafka connect 关键配置信息

  1. bootstrap.servers=localhost:9092
  2. # unique name for the cluster, used in forming the Connect cluster group. Note that this must not conflict with consumer group IDs
  3. group.id=connect-cluster
  4. # The converters specify the format of data in Kafka and how to translate it into Connect data. Every Connect user will
  5. # need to configure these based on the format they want their data in when loaded from or stored into Kafka
  6. key.converter=org.apache.kafka.connect.json.JsonConverter
  7. value.converter=org.apache.kafka.connect.json.JsonConverter
  8. # Converter-specific settings can be passed in by prefixing the Converter's setting with the converter we want to apply
  9. key.converter.schemas.enable=true
  10. value.converter.schemas.enable=true
  11. # Topic to use for storing offsets. This topic should have many partitions and be replicated and compacted.
  12. # Kafka Connect will attempt to create the topic automatically when needed, but you can always manually create
  13. # the topic before starting Kafka Connect if a specific topic configuration is needed.
  14. # Most users will want to use the built-in default replication factor of 3 or in some cases even specify a larger value.
  15. # Since this means there must be at least as many brokers as the maximum replication factor used, we'd like to be able
  16. # to run this example on a single-broker cluster and so here we instead set the replication factor to 1.
  17. offset.storage.topic=connect-offsets
  18. # Topic to use for storing connector and task configurations; note that this should be a single partition, highly replicated,
  19. # and compacted topic. Kafka Connect will attempt to create the topic automatically when needed, but you can always manually create
  20. # the topic before starting Kafka Connect if a specific topic configuration is needed.
  21. # Most users will want to use the built-in default replication factor of 3 or in some cases even specify a larger value.
  22. # Since this means there must be at least as many brokers as the maximum replication factor used, we'd like to be able
  23. # to run this example on a single-broker cluster and so here we instead set the replication factor to 1.
  24. config.storage.topic=connect-configs
  25. # Topic to use for storing statuses. This topic can have multiple partitions and should be replicated and compacted.
  26. # Kafka Connect will attempt to create the topic automatically when needed, but you can always manually create
  27. # the topic before starting Kafka Connect if a specific topic configuration is needed.
  28. # Most users will want to use the built-in default replication factor of 3 or in some cases even specify a larger value.
  29. # Since this means there must be at least as many brokers as the maximum replication factor used, we'd like to be able
  30. # to run this example on a single-broker cluster and so here we instead set the replication factor to 1.
  31. status.storage.topic=connect-status
复制代码

查询 MySQL 最近binlog file 信息

  1. SQL
  2. MySQL [(none)]> show binary logs;
  3. | mysql-bin-changelog.094531 |    176317 |
  4. | mysql-bin-changelog.094532 |    191443 |
  5. | mysql-bin-changelog.094533 |   1102466 |
  6. | mysql-bin-changelog.094534 |    273347 |
  7. | mysql-bin-changelog.094535 |    141555 |
  8. | mysql-bin-changelog.094536 |      4808 |
  9. | mysql-bin-changelog.094537 |    146217 |
  10. | mysql-bin-changelog.094538 |     29607 |
  11. | mysql-bin-changelog.094539 |    141260 |
  12. +----------------------------+-----------+
  13. MySQL [(none)]> show binlog events in 'mysql-bin-changelog.094539';
  14. MySQL [(none)]> show binlog events in 'mysql-bin-changelog.094539' limit 10;
  15. +----------------------------+-----+----------------+------------+-------------+---------------------------------------------------------------------------+
  16. | Log_name                   | Pos | Event_type     | Server_id  | End_log_pos | Info                                                                      |
  17. +----------------------------+-----+----------------+------------+-------------+---------------------------------------------------------------------------+
  18. | mysql-bin-changelog.094539 |   4 | Format_desc    | 1399745413 |         123 | Server ver: 5.7.31-log, Binlog ver: 4                                     |
  19. | mysql-bin-changelog.094539 | 123 | Previous_gtids | 1399745413 |         194 | 90710e1c-f699-11ea-85c0-0ec6a6bed381:1-108842347                          |
复制代码

指定server name key 发送offset 记录到offset.storage.topic
  1. $ ./bin/kafka-console-producer.sh -bootstrap-server localhost:9092 --topic  connect-offsets --property "parse.key=true" --property "key.separator=>"
  2. $>["test_servername",{"server":"test_servername"}]>{"ts_sec":1647845014,"file":"mysql-bin-changelog.007051","pos":74121553,"row":1,"server_id":1404217221,"event":2}
复制代码

编辑task api 请求,启动debezium task

  1. {
  2.     "name":"test_servername",
  3.     "config":{
  4.         "connector.class":"io.debezium.connector.mysql.MySqlConnector",
  5.         "snapshot.locking.mode":"none",
  6.         "database.user":"db_user",
  7.         "transforms.Reroute.type":"io.debezium.transforms.ByLogicalTableRouter",
  8.         "database.server.id":"1820615119",
  9.         "database.history.kafka.bootstrap.servers":"localhost:9092",
  10.         "database.history.kafka.topic":"history-topic",
  11.         "inconsistent.schema.handling.mode":"skip",
  12.         "transforms":"Reroute", // 配置binlog数据转发到一个topic,默认一个表一个topic
  13.         "database.server.name":"test_servername",
  14.         "transforms.Reroute.topic.regex":"test_servername(.*)",
  15.         "database.port":"3306",
  16.         "include.schema.changes":"true",
  17.         "transforms.Reroute.topic.replacement":"binlog_data_topic",
  18.         "table.exclude.list":"table_test",
  19.         "database.hostname":"host",
  20.         "database.password":"******",
  21.         "name":"test_servername",
  22.         "database.whitelist":"test_db",
  23.         "database.include.list":"test_db",
  24.         "snapshot.mode":"schema_only_recovery"  // 使用recovery模式从指定binlog文件的offset同步
  25.     }
  26. }
复制代码

3.2 Hudi 全量接增量数据写入

在已经有全量数据在Hudi表的场景中,后续从kafka消费的binlog数据需要增量upsert到Hudi表。debezium的binlog格式携带每条数据更新的信息,需要将其解析为可直接插入的数据。

示例解析生成Flink SQL的Python代码
  1. # 写入数据到ODS Raw表
  2. insert_hudi_raw_query = '''
  3. INSERT INTO
  4. {0}_ods_raw.{1}
  5. SELECT
  6. {2}
  7. FROM
  8. {0}_debezium_kafka.kafka_rds_{1}_log
  9. WHERE
  10. REGEXP(GET_JSON_OBJECT(payload, '$.source.table'), '^{3}$')
  11. AND GET_JSON_OBJECT(payload, '$.source.db') = '{4}'
  12. AND IF(GET_JSON_OBJECT(payload, \'$.op\') = \'d\', GET_JSON_OBJECT(payload, \'$.before.{5}\'), GET_JSON_OBJECT(payload, \'$.after.{5}\')) IS NOT NULL
  13. AND GET_JSON_OBJECT(payload, '$.op') IN ('d', 'c', 'u')
  14. '''.format(
  15.     database_name,
  16.     table_name,
  17.     hudi_schema,
  18.     mysql_table_name,
  19.     mysql_database_name,
  20.     primary_key
  21. )
复制代码

如上对Debezium的三种binlog数据进行解析,我们将insert及update的数据只取after后的数据,对于delete,我们追加一个硬删除字段标记进行插入,Hudi则会自动去重。在这里为了保证增量更新的hudi数据不重复,需要开启index bootstrap功能。

Hudi配置参数
2022-04-19_185209.jpg

    1. CREATE TABLE 创建和 Hoodie 表对应的语句,注意 table type 要正确

    2. 设置 index.bootstrap.enabled = true开启索引加载功能

    3. 索引加载为并发加载,根据数据量大小加载时间不同,可以在log中搜索finish loading the index under partition 和 Load records from file 日志来观察索引加载进度

    4. 重启任务将 index.bootstrap.enabled 关闭,参数配置到合适的大小,如果RowDataToHoodieFunction 和 BootstrapFunction 并发不同,可以重启避免 shuffle

3.3 Hudi同步Metastore自定义分区格式改写

Hudi 提供了HIVE Sync Tool https://hudi.apache.org/docs/syncing_metastore 用来将Hudi的meta data 同步至Hive 进行查询,同时 PrestoDB / Trino 可以直接通过配置Hive的catalog信息实现Hudi表的秒级查询。但目前HiveSyncTool 仅自带支持几种格式的Hudi partion ,源码位置如下位置:

2022-04-19_185245.jpg

如果要同步的hudi表没有分区,或者符合hive 的’yyyy-MM-dd’ / ‘yyyy-MM-dd-HH’ 分区格式,可以直接使用参数--partition-value-extractor 指定到Non/SlashEncodedDayPartitionValueExtractor/SlashEncodedHourPartitionValueExtractor 进行同步,如下命令:

  1. sh  run_sync_tool.sh  --jdbc-url jdbc:hive2:\/\xxxx:10000 --user hive --pass hive --partitioned-by partition --partition-value-extractor  org.apache.hudi.hive.SlashEncodedHourPartitionValueExtractor --base-path s3://xxx/raw/order_business_db/ord_basics  --auto-create-database  --database order_business_db_ods_raw_hive_sync  --table ord_basics
复制代码

但存在分区不满足上述格式,如果使用non分区同步,则会出现查询不到数据的问题,这个时候需要自己实现一个Extractor,实现代码位于package org.apache.hudi.hive,继承 PartitionValueExtractor 定义 SlashEncodedHourPartitionValueExtractor 实现extractPartitionValuesInPath 方法,代码片段如下,实现格式 dd-MM-yy,代码片段截取如下:

2022-04-19_185319.jpg

然后重新打包,执行如下命令,随后在PrestoDB/Hive/Trino 均可直接进行查询。

  1. sh  run_sync_tool.sh  --jdbc-url jdbc:hive2:\/\/xxxx10000 --user hive --pass hive --partitioned-by partition --partition-value-extractor  org.apache.hudi.hive.KlookEncodedDayPartitionValueExtractor --base-path s3://xxxx/raw/order_business_db/ord_basics  --auto-create-database  --database order_business_db_ods_raw_hive_sync  --table ord_basics
复制代码

AWS  EMR  上需要注意的:

  • 找不到log4j 修改run_sync_tool.sh HADOOP_HIVE_JARS=${HIVE_JARS}:${HADOOP_HOME}/:${HADOOP_HOME}/lib/:/usr/lib/hadoop-hdfs/:/usr/lib/hadoop-mapreduce/:/usr/share/aws/emr/emrfs/lib/:/usr/share/aws/emr/emrfs/auxlib/:${GLUE_JARS}
  • 找不到libfb修改 java -cp $HUDI_HIVE_UBER_JAR:${HADOOP_HIVE_JARS}:${HIVE_CONF_DIR}:${HADOOP_CONF_DIR}:${EMRFS_CONF_DIR}:/usr/lib/hudi/cli/lib/libfb303-0.9.3.jar org.apache.hudi.hive.HiveSyncTool "$@"

4. 经验总结

  • 当前整体RDS数据同步解决了对数据时效性及灵活扩展性的业务需求,但如上述,数据链路较长带来大量手动操作。因此,我们做了一些流程自动化的工作,使用Airflow 将DMS全量同步S3,S3同步Hudi的Flink 批作业进行自动调度触发,使得我们填写简单数据库同步参数就可完成一个链路的数据入湖。对于增量Debezium 数据同步,我们也通过编写一些脚本,在启动Flink Stream SQL作业时,同步拉取最新MySQL schema,生成解析binlog数据的SQL ,进行自动任务提交。
  • 在稳定性方面,当前主要考虑增量流作业的稳定性,我们从kafka备份了binlog原始数据,这些数据会在S3保存30天,如果出现流作业写入Hudi异常,我们可以很快跑一个批任务将数据回溯。
  • 该方案运行近一年时间,期间Hudi版本快速迭代fix很多问题,例如前期Hudi在增量接全量时开启index后,必须一次将index缓存在state,index阶段为了提升速度,我们设置了较大的并行度资源,需要人工值守等待一个checkpoint周期然后调低。初期,咨询社区后,提出了全量也使用流读等方式,避免增加改表参数的问题,后续社区也做了一些优化,异步执行index并发加载索引等,无需等待checkpoint完成,index不会阻塞数据写入checkpoint等。
  • 在OLAP选择上,我们在采用Trino进行数据查询Hudi时,由于需要同步工具对Hudi所有分区进行索引同步,我们也遇到了需要兼容分区策略等问题。我们参考了Hudi同步metastore工具编写了转换类兼容了自定义分区。

5. 未来展望

在使用Hudi开源组件过程中,我们体会到必须紧密与社区保持沟通,及时反馈问题,也可以与来自其它公司不同业务场景的工程师进行交流,分享我们遇到的问题及解决思路。后续的改进,我们会从脱离第三方服务DMS 试图直接使用Flink 进行全量数据同步,减少链路中组件的维护数量,同样的,我们将积极跟随Hudi及Flink的发展,优化整体链路的效率。

作者:张鑫
来源:https://mp.weixin.qq.com/s/ldYT3SCLgV0tbppJxYx3DA

最新经典文章,欢迎关注公众号


没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条