我想了解在我想在GCP上使用一个HTTPS负载平衡器来服务bucket中的一些静态内容和Kubernetes上使用react前端和express后端组合的动态内容的场景中,我的负载平衡选项是什么。 附加信息: 我有一个在谷歌域名之外注册的域名 我想通过https提供所有内容 我不是从什么大事做起的。刚刚开始一个或多或少的业余爱好类型的项目,在不久的将来,它将吸引很少的流量 我不介意从app eng
我在Kubernetes中创建了2个服务,在GCP中创建了2个内部负载平衡器。事情进展顺利。 如何将2个服务指向同一个负载均衡器? 我使用了下面的yml文件,服务不起作用。 loadBalancerIP需要实际的loadbalancer IP。 创建负载平衡器时出错(将重试):无法确保服务默认的负载平衡器/示例应用程序:请求的ip“XX.XX.XX.XX”既不是静态的,也没有分配给LB
在使用Google容器引擎时,人们会推荐GCP的本机负载平衡器还是Kubernetes服务type=负载平衡器选项? 人们推荐哪一种?
我希望避免对某个Kubernetes服务使用类型:“LoadBalancer”,但仍然能够在Internet上发布它。我正在使用Google云平台(GCP)运行一个Kubernetes群集,该群集当前运行在单个节点上。 我尝试向我们提供外部IP服务配置,并轮流提供以下IP: 托管Kubernetes群集的实例(外部IP;它还与Kubernetes节点的IP地址相关联,由Kubernetes描述节点
我试图在GCE中的Kubernetes(服务器1.6.4)中部署一个grafana实例。我正在使用以下清单: 部署(完整版本): 服务: 入口: 结果表明,grafana的安检为302,而默认的GCE安检为200(来源)。如您所见,部署中有一个自定义readinessProbe(第22行)。 一旦我将这些资源发布到kube apiserver,就会创建出所有内容,不会出错。具体来说,入口获得公共i
我阅读了一些教程/示例,试图找出一种简单的方法来启动带有特使代理的grpc后端,为web路由流量。我成功地在本地运行此架构以进行e2e通信。 我找到了官方文件https://cloud.google.com/architecture/exposing-grpc-services-on-gke-using-envoy-proxy.但我认为我现在不需要负载平衡器。 我的目标: 运行Grpc后端服务器以
我成功地基于外部负载平衡器设置了自动缩放,但我没有找到一种方法来对内部负载平衡器进行同样的设置。 是否支持此功能,如何根据内部负载均衡器自动扩展我的实例组? 问题是,当您将实例组配置为按HTTP请求扩展时,您需要一个面向internet的HTTP负载平衡器,因此,可以是内部的UDP负载平衡器不适用于此。
我在GCP中建立了自己的Elasticsearch集群。群集已启动并运行良好。 集群包含两个客户端节点,我可以使用它们在内部访问并通过运行状况检查http://IP:9200/和
我们在GKE设置中使用NGINX入口,这意味着GCP正在使用TCP负载均衡器将流量路由到库伯内特斯NGINX入口。 我们提供kubernetes的静态内容,并希望为此从GCP CDN中受益。然而,据我所知,使用TCP负载平衡器设置CDN是不可能的。我们如何将GCP CDN合并到设置中?有什么可能性?
我有一个负载平衡器设置,将流量路由到多个云存储桶和一个后端实例组。这些桶似乎工作得很好,但我就是无法让实例组工作。当我使用它的公共IP时,该实例运行良好。但它无法通过负载平衡器工作。 这是我第二次设置完全相同的部署,所以不完全确定哪里出错了。我查看了文档进行故障排除,看起来我的健康检查有问题。 我已经配置了一个应该可以工作的健康检查,我将其设置为http端口80/path。我的服务器为此返回了20
免责声明:我来自AWS背景,但对GCP来说相对来说是非常新的。我知道存在许多类似的问题(例如,这里和这里等),但我仍然无法解决,因为仍然缺少准确/详细的说明。所以请容忍我再次问这个问题。 我的简单设计: 公共HTTP/S流量(入口) GCP负载平衡器持有SSL证书,然后使用端口80进行到服务器的下游连接。因此,LB到服务器只是HTTP。 我的问题: 如何防止传入的HTTP/S公共流量直接到达GCP
我需要从另一个GCP区域访问运行在GKE Nginx入口服务上的内部应用程序,该服务运行在内部负载均衡器上。 我完全知道,直接使用谷歌网络是不可能的,这是一个巨大的限制(GCP功能请求)。 通过AWS的VPN隧道可以很好地访问内部负载平衡器,但我不确定在同一网络下的GCP区域之间创建这样的隧道是一个好主意。 欢迎变通方法!
我已经按照用户指南在库伯内特斯上实现了Traefik。这给了我一个入口控制器,我能够在80和8080上创建一个入口和traefik-ingress-service监听。 我还设置了“gce”入口: 这样做的目的是创建一个GCE负载平衡器,它终止我的TLS,并将所有请求转发给NodePort类型的traefik入口服务。 GCE负载平衡器需要进行健康检查。默认为路径“/”。我以为traefik有个“
我正在库伯内特斯集群上工作,在那里我将服务从GCloud入口引导到我的服务。其中一个服务endpoint未能通过HTTP的健康检查,但将其传递为TCP。 当我将GCloud中的健康检查选项更改为TCP时,健康检查通过,我的endpoint正常工作,但几分钟后,GCloud上的健康检查将该端口重置回HTTP,健康检查再次失败,给我一个502响应在我的endpoint上。 我不知道这是Google C
我正在尝试将node.js应用程序(工件注册表中的Dockerize)部署到GCP库伯内特斯集群中......然后还将服务/部署放在入口后面,以便我们的静态前端可以通过CORS与此应用程序通信。 我可以在不使用入口的情况下让服务正常工作(只是一个标准的服务/部署),但由于CORS错误,前端无法与之通信。经过研究,我了解到我应该创建一个入口来控制此场景的流量。 应用程序部署配置为在任何位置的端口80