当前位置: 首页 > 知识库问答 >
问题:

SQL服务器Kafka连接器在独立模式不加载数据在kafka

盖锐进
2023-03-14

我正在使用JDBC source Kafka connector以独立模式将数据从SQL Server转储到Kafka。我已经下载了confluentinc-kafka-connect-jdbc-5.5.0。JDBC连接器jar的zip

>

  value.converter=org.apache.kafka.connect.json.JsonConverter
  key.converter=org.apache.kafka.connect.json.JsonConverter
  bootstrap.servers=localhost:9092
  plugin.path=/home/kafka_2.12-2.5.0/connector/plugin/
  offset.storage.file.filename=file

连接器1。属性

  name=test12_connector
  connector.class=io.confluent.connect.jdbc.JdbcSourceConnector
  connection.url=jdbc:sqlserver://host;databaseName=db;
  connection.user=user
  connection.password=password
  query=SELECT TOP 100 * FROM table;
  topic.prefix=test-
  mode=bulk

我使用下面的命令在独立模式下运行连接器-

sh bin/connect-standalone.sh -daemon connector/worker.properties connector/connector1.properties

我正在使用最新的SQLServer JDBC驱动程序

此外,还添加了相同的插件。类路径中的路径。

但我面临的问题是,它被卡在日志中的以下行

-日志

[2020-06-29 18:41:31,402] DEBUG Dialect SqlServerDatabaseDialect scored 100 against JDBC subprotocol 'sqlserver' and source 'jdbc:sqlserver://host:1433;databaseName=db;' (io.confluent.connect.jdbc.dialect.DatabaseDialects:127)
[2020-06-29 18:41:31,402] DEBUG Dialect SqliteDatabaseDialect scored 0 against JDBC subprotocol 'sqlserver' and source 'jdbc:sqlserver://host:1433;databaseName=db;' (io.confluent.connect.jdbc.dialect.DatabaseDialects:127)
[2020-06-29 18:41:31,402] DEBUG Dialect SybaseDatabaseDialect scored 100 against JDBC subprotocol 'sqlserver' and source 'jdbc:sqlserver://host:1433;databaseName=db;' (io.confluent.connect.jdbc.dialect.DatabaseDialects:127)
[2020-06-29 18:41:31,403] DEBUG Dialect VerticaDatabaseDialect scored 0 against JDBC subprotocol 'sqlserver' and source 'jdbc:sqlserver://host:1433;databaseName=db;' (io.confluent.connect.jdbc.dialect.DatabaseDialects:127)
[2020-06-29 18:41:31,403] DEBUG Using dialect SqlServerDatabaseDialect with score 100 against JDBC subprotocol 'sqlserver' and source 'jdbc:sqlserver://host:1433;databaseName=db;' (io.confluent.connect.jdbc.dialect.DatabaseDialects:133)

它甚至没有显示任何错误日志。我已经将日志级别更改为TRACE,但连接器仍然没有显示任何错误

共有1个答案

满才
2023-03-14

我会尝试使用连接器属性,可能会添加

"tasks.max": "1",
"internal.key.converter.schemas.enable": "false",
"reporter.admin.bootstrap.servers": "localhost:9092",
"internal.value.converter.schemas.enable": "false",

它似乎也挂起没有获得连接到源SQL服务器,所以要么连接字符串不正确,要么它找不到这个方言的驱动程序JAR文件.检查日志,如果JDBCSQL服务器方言驱动程序被加载。

 类似资料:
  • 我正在尝试从kafka中的主题将数据插入postgres数据库。我正在使用以下命令加载 sink-quick start-MySQL . properties如下 我得到的错误是 Postgres jar文件已经在文件夹中。有人能提出建议吗?

  • 我有一个独立的Kafka经纪人,我试图配置SASL。配置如下。我试图在经纪人身上设置SASL_PLAIN身份验证。 我的理解是,这与听众有关。名称服务器中的配置。属性,我不需要jaas文件。但我已经尝试过一种方法,看看这是否是一种更好的方法。 我对这些命令中的每一个都进行了实验,但都产生了相同的异常。 显示的异常为: KafkaServer启动期间出现致命错误。准备关机。。。找不到“KafkaSe

  • 我有一个现有的2个kafka服务器加载了mysql连接器。它起作用了。此外,我需要添加MongoDB连接器。我已经在我的Kafka服务器(Centos7)上安装了confluent schema registry,它可以工作,我停止/启动/重新启动,看起来没有什么问题。我在这里下载并提取了debezium Mongo插件/usr/连接器/插件/debezium连接器mongodb/ 我编辑了 /e

  • 我们试图在给定的节点上启动多个独立的kafka hdfs连接器。 对于每个连接器,我们分别将和设置为不同的端口和路径。 也是Kafka经纪人JMX港是@ 9999。 当我启动 kafka 独立连接器时,出现错误 错误:代理引发异常:java.rmi.server。ExportException:端口已在使用:9999;嵌套异常是:java.net。BindException:地址已在使用中(绑定失

  • 我已经实现了一个基于此Apache项目的FTP服务器:http://mina.apache.org/ftpserver-project/index.html 服务器旨在支持被动模式并进行相应配置。出于测试目的,我仅配置了一个被动端口(4244),但启动服务器后此端口上没有任何内容被监听。FTP服务器正在监听标准端口用于主动连接和SSL连接。 当尝试与FTP客户端连接时,我会收到以下错误(不足为奇)