分享

基于Apache Hudi和Debezium构建CDC入湖管道

问题导读:
1.Apache Hudi和Debezium构建CDC入湖管道在什么背景下产生的?
2.在使用 Debezium 源连接器进行 CDC 摄取时,Hudi做哪些部署配置?
3.本文内容是否对您的工作有帮助?




a11.png


从 Hudi v0.10.0 开始,我们很高兴地宣布推出适用于 Deltastreamer[1] 的 Debezium 源[2],它提供从 Postgres 和 MySQL 数据库到数据湖的变更捕获数据 (CDC) 的摄取。有关详细信息请参阅原始 RFC[3]

1. 背景
a1.png

当想要对来自事务数据库(如 Postgres 或 MySQL)的数据执行分析时,通常需要通过称为更改数据捕获[4] CDC的过程将此数据引入数据仓库或数据湖等 OLAP 系统。Debezium 是一种流行的工具,它使 CDC 变得简单,其提供了一种通过读取更改日志[5]来捕获数据库中行级更改的方法,通过这种方式 Debezium 可以避免增加数据库上的 CPU 负载,并确保捕获包括删除在内的所有变更。现在 Apache Hudi[6] 提供了 Debezium 源连接器,CDC 引入数据湖比以往任何时候都更容易,因为它具有一些独特的差异化功能[7]。Hudi 可在数据湖上实现高效的更新、合并和删除事务。Hudi 独特地提供了 Merge-On-Read[8] 写入器,与使用 Spark 或 Flink 的典型数据湖写入器相比,该写入器可以显着降低摄取延迟[9]。最后,Apache Hudi 提供增量查询[10],因此在从数据库中捕获更改后可以在所有后续 ETL 管道中以增量方式处理这些更改下游。

2. 总体设计
a2.png

上面显示了使用 Apache Hudi 的端到端 CDC 摄取流的架构,第一个组件是 Debezium 部署,它由 Kafka 集群、schema registry(Confluent 或 Apicurio)和 Debezium 连接器组成,Debezium 连接器不断轮询数据库中的更改日志,并将每个数据库行的更改写入 AVRO 消息到每个表的专用 Kafka 主题。第二个组件是 Hudi Deltastreamer[11],它为每个表从 Kafka 读取和处理传入的 Debezium 记录,并在云存储上的 Hudi 表中写入(更新)相应的行。为了近乎实时地将数据库表中的数据提取到 Hudi 表中,我们实现了两个可插拔的 Deltastreamer 类。首先我们实现了一个 Debezium 源[12]。Deltastreamer 在连续模式下运行,源源不断地从给定表的 Kafka 主题中读取和处理 Avro 格式的 Debezium 更改记录,并将更新的记录写入目标 Hudi 表。除了数据库表中的列之外,我们还摄取了一些由 Debezium 添加到目标 Hudi 表中的元字段,元字段帮助我们正确地合并更新和删除记录,使用Schema Registry[13]表中的最新模式读取记录。其次我们实现了一个自定义的 Debezium Payload[14],它控制了在更新或删除同一行时如何合并 Hudi 记录,当接收到现有行的新 Hudi 记录时,有效负载使用相应列的较高值(MySQL 中的 FILEID 和 POS 字段以及 Postgres 中的 LSN 字段)选择最新记录,在后一个事件是删除记录的情况下,有效负载实现确保从存储中硬删除记录。删除记录使用 op 字段标识,该字段的值 d 表示删除。

3. Apache Hudi配置
在使用 Debezium 源连接器进行 CDC 摄取时,请务必考虑以下 Hudi 部署配置。
•记录键 - 表的 Hudi 记录键[15]应设置为上游数据库中表的主键。这可确保正确应用更新,因为记录键唯一地标识 Hudi 表中的一行。
•源排序字段 - 对于更改日志记录的重复数据删除,源排序字段应设置为数据库上发生的更改事件的实际位置。例如我们分别使用 MySQL 中的 FILEID 和 POS 字段以及 Postgres 数据库中的 LSN 字段来确保记录在原始数据库中以正确的出现顺序进行处理。
•分区字段 - 不要将 Hudi 表的分区与与上游数据库相同的分区字段相匹配。当然也可以根据需要为 Hudi 表单独设置分区字段。

3.1 引导现有表
一个重要的用例可能是必须对现有数据库表进行 CDC 摄取。在流式传输更改之前我们可以通过两种方式获取现有数据库数据:
•默认情况下,Debezium 在初始化时执行数据库的初始一致快照(由 config snapshot.mode 控制)。在初始快照之后它会继续从正确的位置流式传输更新以避免数据丢失。
•虽然第一种方法很简单,但对于大型表,Debezium 引导初始快照可能需要很长时间。或者我们可以运行 Deltastreamer 作业,使用 JDBC 源[16]直接从数据库引导表,这为用户定义和执行引导数据库表所需的更优化的 SQL 查询提供了更大的灵活性。引导作业成功完成后,将执行另一个 Deltastreamer 作业,处理来自 Debezium 的数据库更改日志,用户必须在 Deltastreamer 中使用检查点[17]来确保第二个作业从正确的位置开始处理变更日志,以避免数据丢失。

3.2 例子
以下描述了使用 AWS RDS 实例 Postgres、基于 Kubernetes 的 Debezium 部署和在 Spark 集群上运行的 Hudi Deltastreamer 实施端到端 CDC 管道的步骤。

3.3 数据库
RDS 实例需要进行一些配置更改才能启用逻辑复制。
  1. SET rds.logical_replication to 1 (instead of 0)
  2. psql --host=<aws_rds_instance> --port=5432 --username=postgres --password -d <database_name>;
  3. CREATE PUBLICATION <publication_name> FOR TABLE schema1.table1, schema1.table2;
  4. ALTER TABLE schema1.table1 REPLICA IDENTITY FULL;
复制代码

3.4 Debezium 连接器
Strimzi[18] 是在 Kubernetes 集群上部署和管理 Kafka 连接器的推荐选项,或者可以选择使用 Confluent 托管的 Debezium 连接器[19]。
  1. kubectl create namespace kafka
  2. kubectl create -f https://strimzi.io/install/latest?namespace=kafka -n kafka
  3. kubectl -n kafka apply -f kafka-connector.yaml
  4. kafka-connector.yaml 的示例如下所示:
  5. apiVersion: kafka.strimzi.io/v1beta2
  6. kind: KafkaConnect
  7. metadata:
  8. name: debezium-kafka-connect
  9. annotations:
  10. strimzi.io/use-connector-resources: "false"
  11. spec:
  12. image: debezium-kafka-connect:latest
  13. replicas: 1
  14. bootstrapServers: localhost:9092
  15. config:
  16. config.storage.replication.factor: 1
  17. offset.storage.replication.factor: 1
  18. status.storage.replication.factor: 1
复制代码

可以使用以下包含 Postgres Debezium 连接器的 Dockerfile 构建 docker 映像 debezium-kafka-connect
  1. FROM confluentinc/cp-kafka-connect:6.2.0 as cp
  2. RUN confluent-hub install --no-prompt confluentinc/kafka-connect-avro-converter:6.2.0
  3. FROM strimzi/kafka:0.18.0-kafka-2.5.0
  4. USER root:root
  5. RUN yum -y update
  6. RUN yum -y install git
  7. RUN yum -y install wget
  8. RUN wget https://repo1.maven.org/maven2/i ... Final-plugin.tar.gz
  9. RUN tar xzf debezium-connector-postgres-1.6.1.Final-plugin.tar.gz
  10. RUN mkdir -p /opt/kafka/plugins/debezium && mkdir -p /opt/kafka/plugins/avro/
  11. RUN mv debezium-connector-postgres /opt/kafka/plugins/debezium/
  12. COPY --from=cp /usr/share/confluent-hub-components/confluentinc-kafka-connect-avro-converter/lib /opt/kafka/plugins/avro/
  13. USER 1001
复制代码

一旦部署了 Strimzi 运算符和 Kafka 连接器,我们就可以启动 Debezium 连接器。
curl -X POST -H "Content-Type:application/json" -d @connect-source.json http://localhost:8083/connectors/
以下是设置 Debezium 连接器以生成两个表 table1 和 table2 的更改日志的配置示例。connect-source.json 的内容如下
  1. {
  2.   "name": "postgres-debezium-connector",
  3.   "config": {
  4.     "connector.class": "io.debezium.connector.postgresql.PostgresConnector",
  5.     "database.hostname": "localhost",
  6.     "database.port": "5432",
  7.     "database.user": "postgres",
  8.     "database.password": "postgres",
  9.     "database.dbname": "database",
  10.     "plugin.name": "pgoutput",
  11.     "database.server.name": "postgres",
  12.     "table.include.list": "schema1.table1,schema1.table2",
  13.     "publication.autocreate.mode": "filtered",
  14.     "tombstones.on.delete":"false",
  15.     "key.converter": "io.confluent.connect.avro.AvroConverter",
  16.     "key.converter.schema.registry.url": "<schema_registry_host>",
  17.     "value.converter": "io.confluent.connect.avro.AvroConverter",
  18.     "value.converter.schema.registry.url": "<schema_registry_host>",
  19.     "slot.name": "pgslot"
  20.   }
  21. }
复制代码

3.5 Hudi Deltastreamer
接下来我们使用 Spark 运行 Hudi Deltastreamer,它将从 kafka 摄取 Debezium 变更日志并将它们写入 Hudi 表。下面显示了一个这样的命令实例,它适用于 Postgres 数据库。几个关键配置如下:
&#8226;将源类设置为 PostgresDebeziumSource。
&#8226;将有效负载类设置为 PostgresDebeziumAvroPayload。
&#8226;为 Debezium Source 和 Kafka Source 配置模式注册表 URL。
&#8226;将记录键设置为数据库表的主键。
&#8226;将源排序字段 (dedup) 设置为 _event_lsn
  1. spark-submit \\
  2.   --jars "/home/hadoop/hudi-utilities-bundle_2.12-0.10.0.jar,/usr/lib/spark/external/lib/spark-avro.jar" \\
  3.   --master yarn --deploy-mode client \\
  4.   --class org.apache.hudi.utilities.deltastreamer.HoodieDeltaStreamer /home/hadoop/hudi-packages/hudi-utilities-bundle_2.12-0.10.0-SNAPSHOT.jar \\
  5.   --table-type COPY_ON_WRITE --op UPSERT \\
  6.   --target-base-path s3://bucket_name/path/for/hudi_table1 \\
  7.   --target-table hudi_table1  --continuous \\
  8.   --min-sync-interval-seconds 60 \\
  9.   --source-class org.apache.hudi.utilities.sources.debezium.PostgresDebeziumSource \\
  10.   --source-ordering-field _event_lsn \\
  11.   --payload-class org.apache.hudi.common.model.debezium.PostgresDebeziumAvroPayload \\
  12.   --hoodie-conf schema.registry.url=https://localhost:8081 \\
  13.   --hoodie-conf hoodie.deltastreamer.schemaprovider.registry.url=https://localhost:8081/subjects/postgres.schema1.table1-value/versions/latest \\
  14.   --hoodie-conf hoodie.deltastreamer.source.kafka.value.deserializer.class=io.confluent.kafka.serializers.KafkaAvroDeserializer \\
  15.   --hoodie-conf hoodie.deltastreamer.source.kafka.topic=postgres.schema1.table1 \\
  16.   --hoodie-conf auto.offset.reset=earliest \\
  17.   --hoodie-conf hoodie.datasource.write.recordkey.field=”database_primary_key” \\
  18.   --hoodie-conf hoodie.datasource.write.partitionpath.field=partition_key \\
  19.   --enable-hive-sync \\
  20.   --hoodie-conf hoodie.datasource.hive_sync.partition_extractor_class=org.apache.hudi.hive.MultiPartKeysValueExtractor \\
  21.   --hoodie-conf hoodie.datasource.write.hive_style_partitioning=true \\
  22.   --hoodie-conf hoodie.datasource.hive_sync.database=default \\
  23.   --hoodie-conf hoodie.datasource.hive_sync.table=hudi_table1 \\
  24.   --hoodie-conf hoodie.datasource.hive_sync.partition_fields=partition_key
复制代码


4. 总结
这篇文章介绍了用于 Hudi Deltastreamer 的 Debezium 源,以将 Debezium 更改日志提取到 Hudi 表中。现在可以将数据库数据提取到数据湖中,以提供一种经济高效的方式来存储和分析数据库数据。请关注此 JIRA[20] 以了解有关此新功能的更多信息。







最新经典文章,欢迎关注公众号



没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条