当前位置: 首页 > 知识库问答 >
问题:

用于集群间通信的Kafka MirorMaker2端口

蔚学林
2023-03-14

我已经为两个Kafka集群(名为DC、DR)设置了带有主动-主动策略的Apache MirrorMaker 3.0.0。因此,MirrorMaker2将有关DC的主题复制为DC。

在每个集群中,我设置了3个kafka代理节点。

假设使用了以下 IP 配置

DC 1st node IP : kafka-dc-server1:9092
DC 2nd node IP : kafka-dc-server2:9092
DC 3rd node IP : kafka-dc-server3:9092

DR 1st node IP : kafka-dr-server1:9092
DR 2nd node IP : kafka-dr-server2:9092
DR 3rd node IP : kafka-dr-server3:9092

连接制造商属性

DC.bootstrap.servers = kafka-dc-server1:9092, kafka-dc-server2:9092, kafka-dc-server3:9092
DR.bootstrap.servers = kafka-dr-server1:9092, kafka-dr-server2:9092, kafka-dr-server3:9092

我只想了解是否只有9092端口足以进行集群间通信(记录、偏移和其他元数据转换),或者我们是否还需要在一些端口上开放连接?

共有1个答案

郭兴平
2023-03-14

如果端口< code>9092用作每个< code>server.properties

 类似资料:
  • 主要内容:一、集群,二、网络通信,三、总结一、集群 再强大的系统也有当机的时候,可能是自身原因,也可能是外在原因。那么单机部署任何一个软件,都会有这种风险,而有的时候儿,这种风险是不可承受的或者说成本太高了。所以,支持分布式的部署几乎是所有大型软件的必备,Redis同样也支持,这就是集群模式。 Redis的分布式集群模式不是一步而就的,一开始是简单的主从模式,一主N备,发现主设备挂掉,需要人工参与将Slaver提升到主;后来在2.8版本中

  • 我有一个运行在minikube(已启用加载项)中的nginx ingress,它有几个吊舱和服务,ingress具有以下配置: 当我在集群之外时,以下各项工作正常: 但是,当我在集群内时,我希望容器能够使用我的入口模板中列出的主机名相互通信。例如,我希望以下方法可以工作,但事实并非如此: 相反,它返回实际api的结果。信息网站,我没有隶属关系。首先,有人能确认这是可行的吗? 非常感谢。

  • 我正在Kubernetes集群中运行2个服务。 价格SVC 服务以“ClusterIP”类型部署,入口(netcalar)位于服务前面。 调度运行良好,我可以从库伯内特斯集群外部访问调度。 现在,尝试从pricesvc访问计划vc。我可以使用ClusterIP服务endpoint或入口。由于我计划在多个数据中心运行库伯内特斯集群,因此我将在DC的Active/Active中运行我的应用程序,因此我

  • 我有一个复合服务S.c,它使用两个原子服务S.a和S.b,其中所有三个服务都在Kubernetes集群中运行。更好的模式是什么 1)将Sa、Sb创建为无头服务,并让Sc通过NGINX等外部负载均衡器与它们集成(使用DNS解析器来维护更新的后端pod) 2) 使用clusterIP创建Sa、Sb,并让Sc通过群集DNS(skyDNS加载项)访问/解析它们。这将在内部利用基于IP表的负载平衡来实现PO

  • 我对AWS上POD之间的跨集群通信有疑问。 我正在使用kubernetes在AWS上部署集群。两个星团位于同一区域和AZ。两个集群都部署在各自的VPC中,子网不重叠。我已经成功创建了VPC对等,以在两个VPC之间建立通信。VPC的仆从(实例)可以通过私有IP相互ping。 问题是,来自一个集群(VPC)的Kubernetes吊舱不能通过其内部IP ping另一个集群中的吊舱。我看到流量离开吊舱和仆

  • 我们有kafka集群,包含3个kafka代理节点和3个zookeepers服务器 Kafka版本- 10.1 ( hortonworks) 根据我的理解,因为所有的元数据都位于zookeeper服务器上,kafka代理正在使用这些数据(kafka通过端口2181与zookeeper服务器对话) 我只是想知道是否每台kafka机器都与集群中的其他kafka交谈,或者kafka可能只在动物园管理员服务