我已经将我的应用程序部署在一个由3个节点组成的集群中。现在为了使这个应用程序可以外部访问,我遵循了这个留档和集成的nginx入口控制器。
现在,当我查看我的Google负载平衡器控制台时,我可以看到一个新的负载平衡器被创建了,一切正常。但奇怪的是,我发现我的两个节点不健康,只有一个节点正在接受连接。然后我发现了这个讨论,并了解到运行nginx入口控制器pod的唯一节点对于负载平衡器来说是健康的。
现在我很难理解这个数据流和外部负载平衡器的使用。我们使用外部负载平衡器来平衡多台机器的负载。但是,通过这种配置,外部负载平衡器将始终将流量转发到具有nginx入口控制器pod的节点。如果这是正确的,那么外部负载平衡的作用是什么?
您可以在多个kubernetes节点上部署多个Nginx ingress控制器吊舱副本,以实现高可用性,从而在一个kubernetes节点不可用时减少停机的可能性。LoadBalancer将向其中一个nginx入口控制器吊舱发送请求。从nginx入口控制器吊舱,它将转发到任何后端吊舱。外部负载平衡器的作用是在集群外部公开nginx入口控制器吊舱。由于不建议在生产中使用NodePort,并且不能使用ClusterIP在集群外公开POD,因此LoadBalancer是可行的选择。
是否可以在没有负载均衡器的情况下在库伯内特斯中使用入口控制器功能(在数字海洋中)。 是否有其他机制允许域名映射到Kubernetes服务;例如,如果我在Kubernetes集群上托管两个WordPress站点: == 域名如何在不显式输入端口号的情况下映射到容器端口8080。 感谢任何帮助。
我很难理解与Ingress Nginx一起使用时负载平衡器的作用。 我知道负载平衡器在多个节点上分发请求。 i、 假设我有两个节点A和B,它们负责处理示例中的请求。com。 因此,负载均衡器将接受对的请求,并在定义的算法的帮助下在它们之间分配。 我也了解什么是API网关, i、 例如,我有一个订单服务和另一个支付服务,这样API网关将获得示例的请求。com,它将把订单请求移交给服务部门,将付款移交
GCP为GKE负载平衡器提供了自己的托管入口控制器。我还看到了部署和利用Nginx入口控制器的文档。 https://cloud.google.com/community/tutorials/nginx-ingress-gke 内置入口控制器也在负载均衡器级别处理SSL终止。是否有特定的流量处理能力使Nginx成为GKE更好的入口控制候选者?
在Kubernetes中创建负载平衡器类型的服务时,它是创建一个全新的外部负载平衡器,还是只为负载平衡器类型的第一个服务创建一个负载平衡器,并将该负载平衡器重新用于负载平衡器类型的所有后续服务? 这个问题特别重要,因为为每个服务构建一个单独的负载平衡器对我来说成本太高。 如果它特定于云提供商,我使用Azure,但我很想知道其他云提供商是否不同。
我知道,当我们想用一个负载平衡器/公共IP公开多个服务/路由时,可以使用入口。 现在我想公开我的Nginx服务器。我有两个选择 设置瞧,我得到了公共IP 使用Nginx入口控制器 现在我可以用选项1完成我的工作了,我什么时候或者为什么要选择选项2?使用带有入口的nginx而不使用入口有什么好处?
我想在我的ACS集群中创建入口控制器来访问服务。 使用helm我可以实现这一点(使用下面的命令),但是入口控制器通过外部负载均衡器暴露在internet上。 集群中的所有服务都是内部的,不需要向Internet公开。它们将从运行在同一VNET中的应用程序访问。