在使用GKE ingress时,我观察到GKE ingress为负载平衡器创建了多个后端服务,这导致后端服务如此之多,我们甚至面临后端服务作为其全局配额的配额耗尽问题。我的问题是,尽管ingress中有多条路径规则,但为什么NGINX ingress controller不像GCE ingress那样创建多个后端服务。我阅读了这里的文档,
https://cloud.google.com/kubernetes-engine/docs/concepts/ingress#multiple_backend_services
然而,我没有得到NGINX和GKE入口控制器在这一特定方面(后端服务)工作的细节或比较。
原因很容易回答:这不是使用的相同技术。详细来说,我会给你一些见解。
GKE Ingress是一个使用Google云本地构建blox的包装器:转发规则、url映射、目标HTTP代理、后端等等,。。。。
当收到请求时,Google云平台组件会完成它们的工作,最后,通过正确的后端(和服务)访问K8S集群。
NGINX入口的工作方式不同。所有路由都由直接部署在集群内的NGINX pod在内部执行。很少使用Google Cloud组件,所有内容都在内部执行。
您需要消耗更多的集群资源来执行路由,但Google云资源较少,并且您没有达到任何资源配额。
GCP为GKE负载平衡器提供了自己的托管入口控制器。我还看到了部署和利用Nginx入口控制器的文档。 https://cloud.google.com/community/tutorials/nginx-ingress-gke 内置入口控制器也在负载均衡器级别处理SSL终止。是否有特定的流量处理能力使Nginx成为GKE更好的入口控制候选者?
所以我正在使用库伯内特斯作为一个辅助项目,它很棒。运行像我这样的小项目更便宜(一个3-5个实例的小集群基本上为我提供了大约30美元/月的GCP所需的一切)。 我唯一努力的领域是尝试使用kubernetes入口资源映射到集群并扇出到我的微服务(它们是小型Go或节点后端)。我有入口映射到不同服务的配置设置,没有问题。 我知道,在创建入口资源时,您可以很容易地让GCP启动负载平衡器。这很好,但这也意味着
负载均衡器的作用是将流量转发到主机。在这方面,ingress与负载均衡器有何不同?另外,与Amazon ELB和ALB相比,kubernetes内部的负载均衡器是什么概念?
我不确定负载平衡如何与入口一起工作<如果我理解正确,实际情况是这样的: 我看不到负载平衡是如何执行的<我画的上述方案有什么错<你能帮我纠正一下吗? 注意: -以下答案告诉我入口控制器本身属于“loadbalancer”类型:入口服务类型 -我使用kind ClusterIP,因为我不想将loadbalancer暴露给外部世界。以下文章不支持此声明,其中负载平衡器将由服务提供: https://me
有一个入口配置,比如 gke创建了nginx ingress负载平衡器,但也创建了另一个具有后端的负载平衡器,就像如果没有选择nginx,而是选择gcp作为ingress一样。 下面的屏幕截图以红色显示了两个意外的LB,蓝色显示了两个nginx ingress LB,分别用于我们的qa和prod env。 kubectl的输出获取服务 gcp gke服务视图中错误信息入口的屏幕截图 这是意料之中的
主要内容:1 负载均衡or重平衡的触发,1.1 RebalanceService自动重平衡,1.2 Consumer启动重平衡,1.3 Broker请求重平衡,2 小结基于RocketMQ release-4.9.3,深入的介绍了消费者负载均衡服务RebalanceService入口源码。 RocketMQ一个消费者组中可以有多个消费者,在集群模式下他们共同消费topic下的所有消息,RocketMQ规定一个消息队列仅能被一个消费者消费,但一个消费者可以同时消费多个消息队列。这就涉及到如何将多个