我有一个安装了多个连接器的分布式Kafka Connect (6.x)集群。键和值转换器设置为< code > org . Apache . Kafka . connect . JSON . JSON converter 。对于其中一个连接器(S3接收器),我需要使用没有模式的事件,因此在集群配置中将schemas.enable属性设置为False:< code > key . converter . schemas . enable = False ,< code > value . converter . schemas . enable = False 。对于其他的(Debezium MySql source connectors ),我需要在事件中添加模式,所以属性应该是true。
我知道可以覆盖连接器中的配置,但显然这仅适用于生产者
。 和消费者。 配置。
我尝试在源连接器中覆盖生产者.key.converter.schemas.enable
,但它似乎没有效果。
有没有办法在一个Kafka Connect集群中实现这一点?
您可以使用continue在相应的连接器配置中使用< code > key/value . converter . schemas . enable ,而不使用任何前缀,这将覆盖worker属性。
转换器不是消费者/生产者客户端的属性
我正在尝试将来自主题的数据(json数据)写入MySql数据库。我想我需要一个JDBC接收器连接器。 我如何配置连接器以将主题中的json数据映射到如何将数据插入数据库。 我能找到的文件只有这个。 “接收器连接器需要了解架构,因此您应该使用合适的转换器,例如架构注册表附带的Avro转换器,或启用了架构的JSON转换器。如果存在Kafka记录键,则可以是基元类型或连接结构,记录值必须是连接结构。从连
我正在尝试在启用SSL的Kafka集群中注册MySql Debezium连接器。我为此目的使用的卷曲是: Debezium无法创建数据库。历史记录主题,它将失败,并出现以下错误: 美化错误:
我正在使用Confluent Kafka Docker镜像,特别是使用这个: https://github.com/confluentinc/cp-docker-images/tree/4.0.x/examples/cp-all-in-one 我想添加MySQL连接器,通过: 正在下载连接器的1.5.46版本(https://dev.mysql.com/get/Downloads/Connecto
我正在尝试使用Kafka Connect Elasticsearch连接器,但没有成功。它正在崩溃,并出现以下错误: 我已经在kafka子文件夹中解压了插件的编译版本,并在connect-standalone.properties中有以下代码行: 我可以看到该文件夹中的各种连接器,但Kafka Connect不加载它们;但它确实加载了标准连接器,如下所示: 如何正确注册连接器?
这就是开发人员指南对动态连接器的描述https://docs.confluent.io/current/connect/devguide.html#dynamic-连接器 并非所有的连接器都有一组静态的分区,因此连接器实现还负责监控外部系统是否有任何可能需要重新配置的变化。例如,在JDBCSourceConnector示例中,连接器可能会为每个任务分配一组表。当创建一个新表时,它必须发现这一点,这
我们使用S3接收器连接器从MSK自动气象站的S3桶中接收数据。 我们已经在AWS EKS(Kubernetes)上部署了KafkaS3水槽连接器 当我们启动连接器时,当 S3 存储桶上发生分段上传时出现以下错误。 我们对S3存储桶有策略限制,因为启用了服务器端加密(AWS-KMS),即如果没有KMS密钥,我们无法上传。 下面是我们用于连接器的配置,下面是错误详细信息,供您参考。 好心帮忙 {"na