当前位置: 首页 > 知识库问答 >
问题:

与节点的连接在身份验证期间终止-kafka

石臻
2023-03-14

与节点的连接在身份验证期间终止。这可能表示身份验证由于凭据无效而失败。(org.apache.kafka.clients.NetworkClient

共有1个答案

戚兴邦
2023-03-14

这是一个非常普遍的错误。如果我们启用调试日志,这将有助于解释为什么会发生身份验证问题。转到kafka配置目录中的log4j.properties文件,并将日志设置为DEBUG而不是INFO。

像下面一样将INFO更改为DEBUG。这将有助于找出SSL连接失败的确切原因。

就像证书问题或未签名的证书一样,它可以更轻松地解决和进一步调试。

log4j.rootLogger=INFO, kafkaAppender

log4j.appender.controllerAppender=org.apache.log4j.DailyRollingFileAppender
log4j.appender.controllerAppender.DatePattern=.yyyy-MM-dd
log4j.appender.controllerAppender.File=/var/log/kafka/kafka-controller.log
log4j.appender.controllerAppender.layout=org.apache.log4j.PatternLayout
log4j.appender.controllerAppender.layout.ConversionPattern=[%d] %p %m (%c)%n

log4j.appender.kafkaAppender=org.apache.log4j.DailyRollingFileAppender
log4j.appender.kafkaAppender.DatePattern=.yyyy-MM-dd
log4j.appender.kafkaAppender.File=/var/log/kafka/kafka.log
log4j.appender.kafkaAppender.layout=org.apache.log4j.PatternLayout
log4j.appender.kafkaAppender.layout.ConversionPattern=[%d] %p %m (%c)%n

log4j.appender.requestAppender=org.apache.log4j.DailyRollingFileAppender
log4j.appender.requestAppender.DatePattern=.yyyy-MM-dd
log4j.appender.requestAppender.File=/var/log/kafka/kafka-request.log
log4j.appender.requestAppender.layout=org.apache.log4j.PatternLayout
log4j.appender.requestAppender.layout.ConversionPattern=[%d] %p %m (%c)%n

log4j.appender.stateChangeAppender=org.apache.log4j.DailyRollingFileAppender
log4j.appender.stateChangeAppender.DatePattern=.yyyy-MM-dd
log4j.appender.stateChangeAppender.File=/var/log/kafka/kafka-state-change.log
log4j.appender.stateChangeAppender.layout=org.apache.log4j.PatternLayout
log4j.appender.stateChangeAppender.layout.ConversionPattern=[%d] %p %m (%c)%n

log4j.logger.kafka.controller=INFO, controllerAppender
log4j.additivity.kafka.controller=false

log4j.logger.kafka.network.RequestChannel$=WARN, requestAppender
log4j.additivity.kafka.network.RequestChannel$=false

log4j.logger.kafka.request.logger=WARN, requestAppender
log4j.additivity.kafka.request.logger=false

log4j.logger.org.IOItec.zkclient.ZkClient=INFO

log4j.logger.state.change.logger=INFO, stateChangeAppender
log4j.additivity.state.change.logger=false 
 类似资料:
  • 我正在使用Grizzly,它注册了两个实例: 在下,有一个Jersey REST风格的应用程序提供产品的api,并且 在下,有一个,它提供静态HTML/JavaScript内容(其中,与 对于身份验证,我目前仅使用Jersey<code>ContainerRequestFilter 但是随着需求的变化,现在我想要求对所有到达服务器的请求进行身份验证。因此,我想将身份认证提升一个级别,从新泽西升级到

  • 我一直在尝试使用SASL_PLAINTEXTSCRAM-SHA-256向我的Kafka代理添加SASL身份验证,但没有任何成功。我在Kafka的日志文件中不断收到以下错误。 错误[控制器id=0,targetBrokerId=0]连接到节点0的身份验证失败,原因是:由于SASL机制SCRAM-SHA-256(org.apache.kafka.clients.NetworkClient)的凭据无效,

  • 于是我在这里看到:https://firebase . Google . com/docs/auth/web/account-linking # link-auth-provider-credentials-to-a-user-account现在可以在Firebase中链接用户账号了。我还看到Firebase提供了匿名认证的功能,它为一个用户创建一个用户会话,不需要任何凭证。 在我们的应用程序中,

  • 问题内容: 是否可以做类似的事情: 在JAVA中类似于MongoVUE或其他基于SQL的数据库的身份验证方法。 在那里,身份验证是在连接数据库实例期间完成的。 我在MongoClient Java文档中看不到适当的实例方法 而在这样的认证(可选)官方文档 不符合我的目标,因为它需要更改应用程序中所有现在不使用身份验证的现有查询方法。 使用Java驱动程序对MongoDB进行身份验证的方式完全符合我

  • 我想集成测试Spring Security认证。只要登录有效。但在测试过程中出现以下错误: 我的自定义UserDetailsService只是从数据库中获取用户并将其映射到我的自定义UserDetailsService。我在这里做错了什么?这是我还有什么:

  • 在我的 Spring Boot 应用程序中,我需要两种类型的身份验证机制。对于文件上传终结点,它需要基于 api 密钥的身份验证,对于其他终结点,它需要基于用户名密码的身份验证。以前,只有基于用户名密码的身份验证,如下所示。 为了支持下面的基于api密钥的身份验证,我修改了这段代码。通过以下线程并相应地实现。使用API密钥和密码保护Spring Boot API Spring Security:多