我正试图使用Spring Cloud数据流,通过bridge应用程序将两个Kafka集群(本质上是一个奇特的MirrorMaker实例)连接起来。如文档中所述,我定义了两个绑定器。Kafka-qa1应该是默认的,kafka-qa2可以在定义或部署属性中作为输出绑定器提供,例如:app . bridge . spring . cloud . stream . bindings . output . binder = Kafka-qa2
我的SCDF应用程序。yaml包含两种粘合剂:
spring:
cloud:
dataflow:
applicationProperties:
stream:
spring:
cloud:
stream:
defaultBinder: kafka-qa1
binders:
kafka-qa1:
type: kafka
environment:
spring:
brokers: qa-1.example.com:9093
zk-nodes: qa-1.example.com:2181
kafka-qa2:
type: kafka
environment:
spring:
brokers: qa-2.example.com:9093
zk-nodes: qa-2.example.com:2181
然而,它似乎忽略了输出绑定器。我还在我的配置中保留了一个单独的活页夹使用的部分(如下)。如果我删除它,defaultBinder选项似乎不起作用,它将恢复为localhost。
kafka:
binder:
brokers: qa-1.example.com:9093
有什么想法或示例可以指出我将多个 Kafka 集群与 Bridge 应用程序连接起来吗?
对于< code >代理和< code>zk-nodes,似乎缺少< code >环境标记的< code > spring . cloud . stream . Kafka . binder 前缀。请看下文。
spring . cloud . data flow . application properties . stream . spring . cloud . stream . binders . Kafka-qa1 . type = Kafka
spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.binders.kafka-qa1.environment.spring.cloud.stream.kafka.binder.brokers=qa-1.example.com:9093
spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.binder.kafka-ka1.environment.spring.cloud.stream.kafka.binder.zkNodes=qa-1.example.com:2181
spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.binders.kafka2.type=kafka
spring . cloud . data flow . application properties . stream . spring . cloud . stream . binders . Kafka-qa2 . environment . spring . cloud . stream . Kafka . binder . brokers = QA-2 . example . com:9093
spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.binders.kafka-qa2.environment.spring.cloud.stream.kafka.binder.zkNodes=qa-2.example.com:2181
对集群设置有点困惑: > Zookeeper可以通过配置myid(1,2,3...)将其设置为群集例如,在zoo.cfg文件中具有zookeeper1:2888:3888、zookeeper2:2889:3889 对于Kafka,在server.properties文件中,是否必须为参数zookeeper.connect指定zookeeper服务器的完整列表,还是只要1就足够了?有什么不同吗?我见
问题内容: 我在将控制器中定义的函数与指令中的回调函数绑定时遇到一些麻烦。我的代码如下所示: 在我的控制器中: 然后我的指令: 在我的html页面中: 上面的代码没有运气。根据我在各种教程中所读的内容,我知道我应该在HTML页面中指定参数? 问题答案: 您的代码中有一个小错误,请尝试以下代码,它应该对您有用
我们希望使用Kafka connect sink连接器将消息从Kafka复制到Mongo DB。在我们的用例中,我们有多个主题,每个主题都有一个分区(主题的名称可以用正则表达式表示,例如topic.XXX.name)。这些主题的数量在不断增加。我想知道Kafka connect架构是否适合这个用例。如果是这样,如何配置它的增益高可缩放性和并行性?任务是什么。最大值?工人数量?
我想配置一个将绑定到多个主题的使用者应用程序(将在一个JVM上运行)。 使用者应用程序中的每个“consume”(假设我有两个主题要侦听)方法将使用@StreamListener注释设置,并链接到特定的主题。 我还将在不同的使用者组中配置每个使用者。 在这样的配置中,使用者应用程序将如何表现? 消息将一个接一个地发送? 我需要在不同的线程中实现每个listner? 这种方法是否有效? Kafka版
我对Kafka是陌生的。我用spring boot创建了一个kafka消费者(spring-kafka dependency)。在我的应用程序中,我使用了consumerFactory和producerfactory beans进行配置。所以在我的应用程序中,我创建了如下的kafka消费者。 我的配置如下 所以我想并行消费,因为我可能会收到更多的消息。关于使用并行主题,我发现我需要为一个主题创建多
我试图有多个消费者的Kafka主题的多个分区与相同的groupId,这将帮助我扩大消费的消息。 根据Kafka的文件,它说: 如何让多个消费者拥有相同的消费者groupId,以实现负载平衡?