我正在使用JDBC source Kafka connector以独立模式将数据从SQL Server转储到Kafka。我已经下载了confluentinc-kafka-connect-jdbc-5.5.0。JDBC连接器jar的zip
>
value.converter=org.apache.kafka.connect.json.JsonConverter
key.converter=org.apache.kafka.connect.json.JsonConverter
bootstrap.servers=localhost:9092
plugin.path=/home/kafka_2.12-2.5.0/connector/plugin/
offset.storage.file.filename=file
连接器1。属性
name=test12_connector
connector.class=io.confluent.connect.jdbc.JdbcSourceConnector
connection.url=jdbc:sqlserver://host;databaseName=db;
connection.user=user
connection.password=password
query=SELECT TOP 100 * FROM table;
topic.prefix=test-
mode=bulk
我使用下面的命令在独立模式下运行连接器-
sh bin/connect-standalone.sh -daemon connector/worker.properties connector/connector1.properties
我正在使用最新的SQLServer JDBC驱动程序
此外,还添加了相同的插件。类路径中的路径。
但我面临的问题是,它被卡在日志中的以下行
-日志
[2020-06-29 18:41:31,402] DEBUG Dialect SqlServerDatabaseDialect scored 100 against JDBC subprotocol 'sqlserver' and source 'jdbc:sqlserver://host:1433;databaseName=db;' (io.confluent.connect.jdbc.dialect.DatabaseDialects:127)
[2020-06-29 18:41:31,402] DEBUG Dialect SqliteDatabaseDialect scored 0 against JDBC subprotocol 'sqlserver' and source 'jdbc:sqlserver://host:1433;databaseName=db;' (io.confluent.connect.jdbc.dialect.DatabaseDialects:127)
[2020-06-29 18:41:31,402] DEBUG Dialect SybaseDatabaseDialect scored 100 against JDBC subprotocol 'sqlserver' and source 'jdbc:sqlserver://host:1433;databaseName=db;' (io.confluent.connect.jdbc.dialect.DatabaseDialects:127)
[2020-06-29 18:41:31,403] DEBUG Dialect VerticaDatabaseDialect scored 0 against JDBC subprotocol 'sqlserver' and source 'jdbc:sqlserver://host:1433;databaseName=db;' (io.confluent.connect.jdbc.dialect.DatabaseDialects:127)
[2020-06-29 18:41:31,403] DEBUG Using dialect SqlServerDatabaseDialect with score 100 against JDBC subprotocol 'sqlserver' and source 'jdbc:sqlserver://host:1433;databaseName=db;' (io.confluent.connect.jdbc.dialect.DatabaseDialects:133)
它甚至没有显示任何错误日志。我已经将日志级别更改为TRACE,但连接器仍然没有显示任何错误
我会尝试使用连接器属性,可能会添加:
"tasks.max": "1",
"internal.key.converter.schemas.enable": "false",
"reporter.admin.bootstrap.servers": "localhost:9092",
"internal.value.converter.schemas.enable": "false",
它似乎也挂起没有获得连接到源SQL服务器,所以要么连接字符串不正确,要么它找不到这个方言的驱动程序JAR文件.检查日志,如果JDBCSQL服务器方言驱动程序被加载。
我正在尝试从kafka中的主题将数据插入postgres数据库。我正在使用以下命令加载 sink-quick start-MySQL . properties如下 我得到的错误是 Postgres jar文件已经在文件夹中。有人能提出建议吗?
我有一个独立的Kafka经纪人,我试图配置SASL。配置如下。我试图在经纪人身上设置SASL_PLAIN身份验证。 我的理解是,这与听众有关。名称服务器中的配置。属性,我不需要jaas文件。但我已经尝试过一种方法,看看这是否是一种更好的方法。 我对这些命令中的每一个都进行了实验,但都产生了相同的异常。 显示的异常为: KafkaServer启动期间出现致命错误。准备关机。。。找不到“KafkaSe
我有一个现有的2个kafka服务器加载了mysql连接器。它起作用了。此外,我需要添加MongoDB连接器。我已经在我的Kafka服务器(Centos7)上安装了confluent schema registry,它可以工作,我停止/启动/重新启动,看起来没有什么问题。我在这里下载并提取了debezium Mongo插件/usr/连接器/插件/debezium连接器mongodb/ 我编辑了 /e
我们试图在给定的节点上启动多个独立的kafka hdfs连接器。 对于每个连接器,我们分别将和设置为不同的端口和路径。 也是Kafka经纪人JMX港是@ 9999。 当我启动 kafka 独立连接器时,出现错误 错误:代理引发异常:java.rmi.server。ExportException:端口已在使用:9999;嵌套异常是:java.net。BindException:地址已在使用中(绑定失
我已经实现了一个基于此Apache项目的FTP服务器:http://mina.apache.org/ftpserver-project/index.html 服务器旨在支持被动模式并进行相应配置。出于测试目的,我仅配置了一个被动端口(4244),但启动服务器后此端口上没有任何内容被监听。FTP服务器正在监听标准端口用于主动连接和SSL连接。 当尝试与FTP客户端连接时,我会收到以下错误(不足为奇)