我正在使用Spring-Cloud-sleuth-stream和Spring-Cloud-starter-stream-kafka发送跨度到kafka,异常发生在连接中。SR1
spring
cloud:
stream:
kafka:
binder:
brokers: 192.168.1.177:9092
zkNodes: 192.168.1.177:2181
192.168.1.177是我的localhost
初始化连接
重试例外
我不明白为什么将集群元数据版本2更新为集群
,主机更改为988fffc614b5
,以及如何修复它
spring-cloud-sleuth-stream
模块已被弃用。请在类路径上使用标准的starter zipkin
和kafka
,并按照文档中所述进行适当配置。
我有一个多线程应用程序,它使用producer类生成消息,之前我使用下面的代码为每个请求创建producer。其中KafkaProducer是新建的,每个请求如下: 然后我阅读了关于生产者的Kafka文档,并了解到我们应该使用单个生产者实例来获得良好的性能。 然后我在一个singleton类中创建了KafkaProducer的单个实例。 现在什么时候 或者我们如何在关闭后重新连接到生产者。问题是如
我已经使用reactor-kafka(kafka的一个功能性Java API)创建了一个KafkaProducer(reactor.kafka.sender.KafkaSender)。使用以下生产者配置, 当我试图发布一个记录到一个无效的主题我得到超时异常 正如所料。但我已经为没有发生的重试进行了配置。我假设在/已过期,每次直到或
我正在考虑创建一个独立的Kafka生产者,它作为守护进程运行,通过套接字接收消息,并将其可靠地发送给Kafka。 但是,我决不能是第一个想到这个想法的人。这样做的目的是避免使用PHP或Node编写Kafka生成器,而只是通过套接字将消息从这些语言传递到独立的守护进程,这些语言负责传递,而主应用程序则一直在做自己的事情。 此守护进程应负责在发生中断时进行重试传递,并充当服务器上运行的所有程序的传递点
我想让我的Kafka制作人变得富有交易性。我正在发送10条消息。如果发生任何错误,则不应向Kafka发送任何消息,即无或全部。 我使用的是Spring Boot KafkaTemplate。 我正在发送文件中提到的10条信息,如下所示。应发送9条消息,且I消息大小超过1MB,由于 https://docs.spring.io/spring-kafka/reference/html/#using-K
我正在探索反应性Kafka,只是想确认反应性Kafka是否等同于同步制作人。与同步生产者,我们得到消息传递保证与确认字符和生产者序列保持。但是,ASYNC不能保证交付和测序。反应式生产者等同于SYNC还是ASYNC?
我想使用spring cloud stream framework创建一个kafkaendpoint,它将有一个http post api到。如何动态更改属性 我可以使用实现来实现上述功能,但不知道是否有可能在Spring中开发此功能。