当前位置: 首页 > 知识库问答 >
问题:

如何在分布式模式下运行Kafka-connect-replicator?

山森
2023-03-14

我想使用 Confluent 的复制器将数据从一个系统复制到另一个系统。我正在使用两个Ubuntu 18.04系统,其中一个充当源,另一个充当目的地。

我尝试在分布式模式下运行kafka connect replicator,更改了以下配置:

    < li >在confluent/etc/Kafka/server . properties中,我做了以下更改
SOURCE
> advertised.listeners=PLAINTEXT://source.ip:9092
DESTINATION
> advertised.listeners=PLAINTEXT://destination.ip:9092


 - group.id=connect-replicator

group.id is same on source and destination system

SOURCE

 - bootstrap.servers=destination.ip:9092, source.ip:9092

DESTINATION

 - bootstrap.servers=destination.ip:9092, source.ip:9092

name=replicator-source
connector.class=io.confluent.connect.replicator.ReplicatorSourceConnector
# source cluster connection info
src.kafka.bootstrap.servers=source.ip:9092
# Set to use direct connection to Zookeeper by Replicator on the source
src.zookeeper.connect=localhost:2181

# destination cluster connection info
dest.kafka.bootstrap.servers=destination.ip:9092
# Set to use direct connection to Zookeeper by Replicator on the destination
dest.zookeeper.connect=destination.ip:2181
# configure topics to replicate
topic.whitelist= test-topic
topic.rename.format=${topic}.replica

目的地

name=replicator-source
connector.class=io.confluent.connect.replicator.ReplicatorSourceConnector
# source cluster connection info
src.kafka.bootstrap.servers=source.ip:9092
# Set to use direct connection to Zookeeper by Replicator on the source
src.zookeeper.connect=source.ip:2181

# destination cluster connection info
dest.kafka.bootstrap.servers=destination.ip:9092
# Set to use direct connection to Zookeeper by Replicator on the destination
dest.zookeeper.connect=destination.ip:2181
# configure topics to replicate
topic.whitelist= test-topic
topic.rename.format=${topic}.replica

然后,我在源系统中创建了主题,并使用下面的命令启动了连接器

PATH_TO_CONFLUENT

之后,我从源系统生成主题中的数据,并尝试在目标系统中使用主题名{topic}。副本,但没有主题可供使用。


共有1个答案

姬高扬
2023-03-14
匿名用户

不清楚你有什么错误,但有一些注意事项。

  1. 连接分布式只接受一个属性文件,而不是两个。HTTP 将属性作为 JSON 发布到连接群集,而不是在群集启动期间加载属性文件。快速入门文件旨在用于独立连接

JSON应该是这样的

{"name": "your-replicator-name", "config": {
  "src.kafka.bootstrap.servers": "...",
  ...
}

/etc/kafka/connect是分布式的。属性应该是在分布式模式下运行任何连接或复制器群集的起点,尽管复制器连接分布式中可能有类似的配置

< code>bootstrap.servers应该只指向一个集群。源和目标将在< code > src . Kafka . bootstrap . servers 和< code > dest . Kafka . bootstrap . servers 中分开

 类似资料:
  • 我正在使用kubernetes中的JDBC接收器连接器构建Kafka-连接应用程序。我尝试了独立模式,它正在工作。我想转移到分布式模式。我可以通过运行下面的yaml文件成功构建两个pod(kafka连接器): bin/connect-distributed.sh配置/worker.properties 并在每个 pod 内部创建了一个接收器连接器,任务.max=1,两个连接器侦听相同的主题。原来他

  • 我们开始Kafka,动物园管理员和Kafka连接在第一个盒子。我们也在第二个盒子里开始了Kafka连接。现在,根据confluent文档,我们必须使用REST API启动HDFS连接器(或任何其他连接器)。所以,在这两个框中启动kafka connect之后,我们尝试通过REST API启动connector。我们尝试了以下命令:- 当我们在这里按enter键时,我们得到以下响应: 位于etc/k

  • 我正在分布式模式下运行 Kafka 连接(在 3 节点群集上)。 VM1 中的一个连接器生成的日志是否与 VM2 和 VM3 相同? 在3个虚拟机上运行的连接器是S3接收器连接器,它们运行在同一个端口8080上,属于同一个组。

  • 我用3台EC2机器创建了kafka connect集群,并在每台机器上启动了3个连接器(debezium-postgres source ),从postgres source中读取一组不同的表。在其中一台机器上,我还启动了s3 sink连接器。因此,来自postgres的已更改数据正通过源连接器(3)移动到kafka broker,S3接收器连接器使用这些消息并将它们推送到S3桶。< br >群集

  • 我已经在Ubuntu上安装了hadoop 1.2.0。所有的服务namenode,sec namenode,datanode,jobtracker,tasktracker运行良好。 然后我安装了hbase-0-94.8,我希望配置也可以。但是HMaster无法在端口9000上启动。它实际上开始,然后下降。 >2014-05-14 09:28:37,015 INFO org.apache.hadoo

  • 我有一个基于过程消费的大数据应用程序- 假设我的应用程序在一台机器上运行,我实例化了2个消费者,他们有自己的生产者,例如生产者1有事务ID - 如果我的应用程序在一台机器上工作,这完全可以正常工作,但是,事实并非如此,因为应用程序需要在多台机器上运行,因此当相同的代码在机器2上运行时,由机器2上的消费者实例化的生产者将具有与机器1上相同的事务ID。我希望事务ID的生成方式不会相互冲突,并且它们是可