我正在为多云开发一个新的“Kubernetes即服务”平台(如GKE等)。
问题是:K8S服务类型“LoadBalancer”与云负载平衡器(Kubernetes外部)配合使用。吉凯恩
我想在我的新“Kubernetes As a Service”平台上提供类似的功能,用户可以在该平台上选择云提供商,创建Kubernetes集群
在Kubernetes集群创建之前,我能够自动执行流程,但在“K8S服务”方面却无能为力
有谁能帮助我如何将K8S服务类型“LoadBalancer”与特定的云负载平衡器集成?我是否需要编写一个新的CRD,或者Git中是否有任何类似的代码(以防有人知道任何参考链接)?
您必须了解kubernetes是如何与云提供商交互的。例如,之前我使用kops在AWS上部署了Kubernetes。我看到kubernetes使用aws访问密钥
例如,查看kubelet手册页,他们提供了一个名为--google-json-key
的选项来验证GCP。如果您在AWS上使用kops
或库贝-aws
部署kubernetes并深入了解设置及其配置/选项等,您会有所了解。(这同样适用于其他云提供商)
在使用Google容器引擎时,人们会推荐GCP的本机负载平衡器还是Kubernetes服务type=负载平衡器选项? 人们推荐哪一种?
我正在Kubernetes(GKE)中运行WebService后端应用程序。它仅由我们的前端Web应用程序使用。通常,来自同一用户(ClientIP)的请求有数十个序列。我的应用程序设置为运行至少2个实例(“minReplicas:2”)。 问题:从日志中我可以看到一个pod过载(接收许多请求)而另一个闲置的情况。两个吊舱都处于就绪状态。 我试图修复它:我试图添加一个自定义就绪状态检查,当有太多打
负载均衡是任何可扩展软件系统的重要组成部分。通过在一组端点上智能分配流量-即便该集合动态更改,并且随着端点故障或减慢-良好的负载均衡可以减少尾部延迟并增加可靠性。linkerd 提供了各种强大的负载均衡算法,包括最小负载,EWMA和孔径(aperture)。这些算法已经在 Twitter 和其他公司进行了大量测试。 因为它在 RPC 层上运行,所以 linkerd 可以根据观察到的 RPC 延迟和
我创建了一个java应用程序,并将其部署到Google云计算引擎中,然后创建了一个负载平衡器,但当我尝试使用端口443访问负载平衡器前端IP时,它会重定向到端口80
我在amazon ews上有一个kubernetes集群,我打算在其上运行多个应用程序。 我有多个服务组成一个这样的应用程序,我想使用amazon负载均衡器(elb)将它们公开到Internet。我想使用ELB,因为我不想直接使用端口80,因为许多应用程序共享这个端口,我希望它们中的每一个都独立于其他应用程序定义它们的入口资源。 我读到了库伯内特斯入口资源公司的信息,认为这正是我要寻找的。然而,我
背景: 我对谷歌的云平台很陌生,所以我想确保我没有遗漏任何明显的东西。 我们正在试验GKE和Kubernetes,我们希望通过https公开一些服务。我已经阅读了有关http(s)负载平衡的文档,这些文档似乎建议您应该维护自己的进行SSL终端和负载平衡的nginx实例。对我来说,这看起来相当复杂(我习惯于使用AWS及其负载平衡器(ELB),它支持SSL终止已有很长时间了)。 问题: 如果您只需要在