我一直在测试kafka连接。但是对于每个连接器,我都必须去阅读连接器留档以了解连接器所需的配置。就我阅读kafka连接API留档而言,我已经看到API以获取连接器相关数据。
GET /connector-plugins
-返回Kafka Connect集群中安装的连接器插件列表。请注意,API仅检查处理请求的工作人员上的连接器,这意味着您可能会看到不一致的结果,尤其是在滚动升级期间,如果您添加了新的连接器罐。
PUT /connector-plugins/{connector-type}/config/validate -
根据配置定义验证提供的配置值。此 API 执行每个配置验证,在验证期间返回建议的值和错误消息。
其他API的其余部分与创建的连接器相关。是否仍要获取所需连接器的配置?
是否仍要获取所需连接器的配置
验证endpoint正是这样做的,这也是Landoop Kafka Connect UI用来为丢失/错误配置的属性提供错误的地方。
属性如何成为必需的实现详细信息取决于连接器配置的重要性级别,
对于任何非高重要性配置,最好参考文档或源代码(如果可用)
我参考了以下链接来了解Kafka的HDFS连接https://docs.confluent.io/2.0.0/Connect/connect-hdfs/docs/index.html 我能够通过配置单元集成将数据从Kafka导出到HDFS。 现在我正尝试在Java程序的帮助下将avro记录写入Kafka 当我把Avro记录写到Kafka主题时,我在Connect中出现以下错误
代码片段如下所示: 如果有人有决议,请帮忙?
在标准/自定义kafkaconnect接收器中,我们如何指定它应该只使用来自kafka主题的read_comitted消息。我可以在这里看到配置,但看不到任何选项(除非这是默认行为)。谢了。https://docs . confluent . io/current/installation/configuration/connect/sink-connect-configs . html
然而,当我连接到路由器配置页面使用浏览器的互联网IP地址显示在那里。如何在我的java应用程序中获得互联网IP地址?
我有一个Hibernate和光数据源的Spring Boot项目。如果我使用注入的SessionFactory对象来获取会话对象,几天后,我会发现与数据库操作相关的任何方法都有这样的异常(只有重新启动才能解决这个问题): 似乎手动使用的会话使此问题。(我有类似的项目,具有相同的配置和功能,但没有注入SessionFactory和Session...我根本没有这样的问题) 应用程序. yaml: 数
我必须跟踪作为数据源bean在Java web服务器中连接的Oracle会话。 假设,在spring框架中,有一个bean: 并且我必须在池的每个连接上调用PL/SQL。 我该怎么做? 请告诉我在mybatis或JDBC中如何做。 谢谢