我们使用SpringKafka流生产者来产生Kafka主题的数据。当我们做弹性测试时,我们得到了下面的错误。
`2020-08-28 16:18:35.536警告[,,]26---[ad|producer-3]好的客户。制作人内部。发件人:[Producer clientId=Producer-3]在分区topic1-0上的生成请求中收到无效元数据错误,原因是组织。阿帕奇。Kafka。常见的错误。NotLeaderForPartitionException:此服务器不是该主题分区的负责人。。现在要请求元数据更新吗
[Producer clientId=Producer-3]在分区topic1-0上的生产请求中收到无效元数据错误,原因是组织。阿帕奇。Kafka。常见的错误。NotLeaderForPartitionException:此服务器不是该主题分区的负责人。。现在将请求元数据更新。
警告应该只在我们运行弹性测试(代理下降/上升测试)的时间段内出现,但这些警告甚至在弹性测试期之后也会出现,并且只针对特定的分区(这里是topic1-0)。所有其他分区都工作正常`
这是我们的生产者配置:spring。云流动Kafka。粘合剂requiredAcks=所有Spring。云流动Kafka。粘合剂配置重试次数=5次。云流动Kafka。粘合剂配置元数据。最大年龄。ms=3000Spring。云流动Kafka。粘合剂配置麦克斯·林。航班请求。每连接=1个Spring。云流动Kafka。粘合剂配置重试。退后。ms=10000
我们也有retry config,它正在尝试获取正确的元数据,您可以在上面的日志中看到这些元数据,但对于特定的分区,它仍然会收到相同的警告。我们的Kafka团队也在分析这个问题。我在谷歌上查过任何解决方案,但没有找到任何有用的。
是否缺少任何配置或其他内容?
请帮帮我。
提前感谢。
这个错误是在Kafka倒下的时候出现的。重启Kafka对我有用!:)
我有两个代理1.0.0Kafka集群,我正在针对这个Kafka运行1.0.0Kafka流API应用程序。我增加了制片人的要求。暂停。毫秒到5分钟来修复生产者超时异常。 目前,在运行一段时间后,我发现以下两种类型的异常。我试图按照ApacheKafka中的建议修复这些异常:TimeoutException,然后什么都不起作用 但不完整的解决方案就在这里。建议使用此解决方案(减少生产批量)。请帮忙。
我试图从JMS源读取数据,并将它们推送到KAFKA主题中,几个小时后,我观察到推送到KAFKA主题的频率几乎为零,经过一些初步分析,我在FLUME日志中发现以下异常。 my flume显示max.request的当前设置值(在日志中)。尺寸为1048576,明显小于1399305,增加了此最大要求。大小可能会消除这些异常,但我无法找到更新该值的正确位置。 我的水槽。配置, 任何帮助都将不胜感激!!
我正在编写一个Flink-Kafka集成程序,如下所示,但Kafka出现超时错误: 从终端我可以看到Kafka和zookeeper正在运行,但当我从Intellij运行上面的程序时,它显示了这个错误: 组织。阿帕奇。Kafka。常见的错误。TimeoutException:在60000毫秒后更新元数据失败。2017年12月15日14:42:50作业执行切换到失败状态。[错误](run-main-0
我的应用程序使用一台机器上运行的Kafka服务器上的消息,然后将它们转发给另一台在其他实例上运行的远程Kafka服务器。在我将应用程序部署到Cloud Foundry并向第一台Kafka服务器发送消息后,应用程序按预期工作。消息被消费并转发到远程Kafka。 然而,在这之后,我在Cloud Foundry(以及在我的本地机器上以较慢的速度)中得到了下面的无限循环异常: StackTrace: 我的
spring版本:2.1.4。发布spring kafka:2.2.5 apache kafka:1.1.0 zoopkeepr:3.4.9 framewrok:Spring防尘套 我正在为我的应用程序使用ChainedKafkaTransactionManager。我有时会遇到ProducerFencedException(10次中有5次),而且数据库中也没有发生回滚(MySQL、spring
您是否了解为SOAP客户端应用程序设置Axis2和Rampart? 我通过Eclipse将Axis2和Rampart的jar文件添加到构建路径中,并将Rampart的jar和mar文件添加到Axis的文件结构中。 我在Axis/Rampart设置中出错,但我不知道… 这就是日志给我的全部内容: com.good.gc10.故障:无法在com.good.gcTalk实例化GCServiceStub。