我试图使用开源的apache kafka运行Kafka连接器(不是使用confluent)
bin/connect-distributed.sh config/connect-distributed.properties
这很好,但这种方式只启动Kafka连接工作程序,我如何加载社区连接器?
bin/connect-distributed.sh config/connect-distributed.properties --config filesource.properties
bin/connect-distributed.sh config/connect-distributed.properties filesource.properties
我尝试了上面的两个命令,都没有给出错误,但无法加载连接器模块。另一个问题,我键入什么命令来检查连接器的状态?
关于检查连接器的状态,可以使用curl GET命令。
curl -X GET http://localhost:8083/connectors/connector_name/status|jq
jq是可选的,它提供了更好的可视化。如果您想检查所有连接器,我可以推荐使用以下脚本:
curl -s "http://localhost:8083/connectors"| jq '.[]'| xargs -I{connector_name} curl -s "http://localhost:8083/connectors/"{connector_name}"/status"| jq -c -M '[.name,.connector.state,.tasks[].state]|join(":|:")'| column -s : -t| sed 's/\"//g'| sort
我强烈建议为此使用jq。您应该看到每个任务的输出为“正在运行”“失败”或“未分配”。
编辑:创建连接器:
curl -XPOST --header "Content-Type: application/json" localhost:8083/connectors -d
'{
"name": "your_connector",
"config": {
"connector.class": "io.debezium.connector.oracle.OracleConnector",
"database.user": "user123"
}
}'
我必须把我的CDC从Aurora mysql db更改为MSK kafka主题。我认为在aws中没有像DMS这样的内置机制,它会将所有CDC从Aurora转移到MSK主题,在他们的文档中,他们没有提到对此的任何支持。 所以我只剩下使用开源的东西了。为了使用它,我有几个问题,请帮助我。 > 我正在进行一些搜索,到处都可以看到kafka-connect-jdbc。那么首先这是这个开源免费许可证吗? 我
问题内容: 我有下表 帐户 这是DDL 这是我的查询 查询的主要目的是选择具有层次关系的数据,分别是PARENT_ACCOUNT_ID和ACCOUNT_ID,但是我得到了查询返回的重复数据 任何建议,不胜感激。谢谢 问题答案: 为什么不简单地: ?
我正在玩Kafka-Connect。我让 在独立模式和分布式模式下工作。 他们宣传工人(负责运行连接器)可以通过 进行管理 但是,我还没有看到任何描述如何实现这一目标的文档。 我如何着手让< code>YARN执行工人?如果没有具体的方法,是否有通用的方法来让应用程序在< code>YARN中运行? 我已经使用< code>spark-submit将< code>YARN与SPARK一起使用,但是
问题内容: 我在本地计算机上设置了一个单节点Kafka Docker容器,如Confluent文档中所述(步骤2-3)。 另外,我还公开了Zookeeper的端口2181和Kafka的端口9092,以便能够从在本地计算机上运行的客户端连接到它们: 问题: 当我尝试从主机连接到Kafka时,连接失败,因为它。 这是我的Java代码: 例外: 问题: 如何连接到在Docker中运行的Kafka?我的代
有没有办法在Kafka Connect启动时自动加载(多个)Kafka Connect连接器(例如在Confluent Platform中)? 我目前发现的是: ConFluent Docs状态为使用命令进行独立模式,并为工作人员和每个连接器提供属性文件。 对于分布式模式,您必须通过REST API运行连接器。 https://docs.confluent.io/current/connect/u
背景:我按照这个链接设置了AWS MSK,并测试了生产者和消费者,它的设置和工作正常。我能够通过两个单独的EC2实例发送和接收消息,这两个实例都使用同一个Kafka集群(我的MSK集群)。现在,我想建立一条从Eventhubs到AWS Firehose的数据管道,其形式如下: Azure Eventhub- 我能够成功地做到这一点,没有使用MSK(通过常规的老Kafka),但由于未说明的原因,需要