假设我有一个Kafka主题,大约有10个分区,我知道每个消费群体应该有10个消费者在任何给定的时间阅读该主题,以实现最大的平行性。
然而,我想知道,对于一个主题在任何给定时间点可以处理的消费者群体的数量,是否也有任何直接规则。(我最近在一次采访中被问及这一点)。据我所知,这取决于代理的配置,以便在任何给定的时间点可以处理多少个连接。
然而,我只是想知道在给定的时间点可以扩展多少个最大消费群体(每个群体有10个消费者)?
从概念上讲,您可以将使用者组视为一个碰巧由多个进程组成的单个逻辑订阅者。作为一个多用户系统,Kafka自然支持在不复制数据的情况下为给定主题拥有任意数量的消费者群体(额外的消费者实际上相当便宜)。
正如Kafka 0.9的API文档中所述,Kafka可以为给定主题支持任意数量的消费者组。
链接:http://kafka.apache.org/090/javadoc/index.html?org/apache/kafka/clients/consumer/KafkaConsumer.html
正如上面所说的,多达数千人应该是可以的。对于那些想在这里登陆的人(像我一样)想知道成千上万的连接(例如,将物联网设备直接连接到Kafka),Kafka似乎不是为这个而设计的,至少根据这个博客。
在Kafka中,对于可以为特定主题实例化的消费者群体的数量没有明确的限制。然而,您应该知道,消费者群体越多,对网络利用率的影响就越大。
我看了Kafka的文件,还不知道如何消费一个话题平行? 假设:我有一个像“发生了一些事情”这样的话题(不要拆分这个话题),我有很多想消费它的客户。那么该怎么办,让多个客户并行消费呢?我应该使用分区和客户群吗?
我是Kafka的新手,正在学习Kafka内部知识。请根据需要随时更正我的理解。。 这是我的实时场景..感谢所有的回复: 我有一个接收数据文件的实时FTP服务器…比如索赔文件。 我将把这些数据发布到一个主题中.让我们把这个主题称为claims_topic(2个分区). 我需要订阅这个claims_topic,阅读消息并将它们写入Oracle和Postgres表。让我们将oracle表称为Otable
我有一个spring boot项目,我是spring-kafka来连接底层的kafka事件枢纽。 我不得不在同一节消费者课上听2个不同的话题。我有两种方法可以这样做。 一个是要有两个这样的Kafka听众: 另一种方法是在同一个kafkaListener中有两个主题,如下所示 ===================edit===============application.yml中的Kafka属性
我正在使用spring boot构建一个web应用程序,现在我需要接收实时通知。我正计划使用apache kafka作为这方面的消息代理。要求用户具有不同的角色,并且根据角色,他们应该接收其他用户正在执行的操作的通知。 我设置了一个生产者和消费者,作为消费者,我可以接收发布到一个主题的信息,比如说topic1。 我遇到的问题是,我可以让多个用户收听同一个主题,而每个用户都应该得到发布到该主题的消息
null null 使用简单消费者或低级消费者可以控制分区,但如果一个实例宕机,其他三个实例将不会处理来自第一个实例中使用的分区的消息
如何在apache/kafka中使用regex消费所有主题?我尝试了上面的代码,但不起作用。