分享

kafka jdbc connector

zstu 发表于 2018-1-11 15:42:33 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 4 5770
kafka的jdbc connector可以增量的从一个关系型数据库导出数据到kafka中吗?当数据库中数据全部导完后,如果又新增加数据到数据库中,这时候jdbc connector是否能够将新增的数据导到kafka中?

已有(4)人评论

跳转到指定楼层
sstutu 发表于 2018-1-11 16:08:41
可以在配置文件*.properties中配置下,模式为incrementing即可。如下
# tasks to create:
name=test-mysql-jdbc-autoincrement
connector.class=io.confluent.connect.jdbc.JdbcSourceConnector
tasks.max=1
connection.url=jdbc:mysql://172.24.8.114:3306/connector?user=$USER&password=$PASSWORD
mode=incrementing
incrementing.column.name=fdsid
topic.prefix=test-mysql-jdbc-

回复

使用道具 举报

zstu 发表于 2018-1-11 16:16:22
sstutu 发表于 2018-1-11 16:08
可以在配置文件*.properties中配置下,模式为incrementing即可。如下
# tasks to create:
name=test-mysql ...

好的,那connector是怎么知道上一次读到哪了呢,是从config.storage.topic这个topic还是从哪里知道的
回复

使用道具 举报

sstutu 发表于 2018-1-11 16:30:25
zstu 发表于 2018-1-11 16:16
好的,那connector是怎么知道上一次读到哪了呢,是从config.storage.topic这个topic还是从哪里知道的[/ba ...

这个就需要看源码了。猜测其实保存某个点即可。然后读取的时候,读取这个点。
回复

使用道具 举报

zstu 发表于 2018-1-11 16:40:02
sstutu 发表于 2018-1-11 16:30
这个就需要看源码了。猜测其实保存某个点即可。然后读取的时候,读取这个点。

你安装的是confluent吧,如果不安装confluent,单纯的使用自定义一个JdbcSourceConnector,然后打包放到到lib中,然后使用> bin/connect-distributed.sh config/connect-distributed.properties来启动connector。这种的可以吗?
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条