当前位置: 首页 > 知识库问答 >
问题:

在kubernetes集群上运行API测试的正确IP

洪俊捷
2023-03-14

我有kubernetes集群和pod,它们是集群IP类型。如果要运行集成测试ip:10.102.222.181或endpoint:10.244.0.157:80,10.249.5.243:80,则哪个ip是正确的ip

Type:              ClusterIP
IP Families:       <none>
IP:                10.102.222.181
IPs:               <none>
Port:              http  80/TCP
TargetPort:        80/TCP
Endpoints:         10.244.0.157:80,10.244.5.243:80
Session Affinity:  None
Events:            <none>

共有2个答案

姚建树
2023-03-14

< code >endpoint中的IP是单独的Pod IPs,当创建新的Pod并替换旧的Pod时,这些IP会发生变化。< code>ClusterIP是稳定的IP,除非您删除并重新创建该服务,否则不会更改。所以建议使用clusterIP。

薛坚
2023-03-14

如果您的测试运行程序在集群内部运行,请使用服务的< code>name:作为主机名。不要直接使用这些IP地址。Kubernetes提供了一个DNS服务,该服务将把服务的名称转换成它的地址(来自< code > kubectl describe Service 输出的< code>IP:),服务本身只是把网络流量转发给< code >endpoint:(单个pod地址)。

如果测试运行器位于集群之外,则根本无法访问这些DNS名称或IP地址。对于基本集成测试,kubectl端口转发服务/其名称12345:80就足够了,然后您可以使用http://localhost:12345到达服务(实际上是一个固定的单吊舱)。这与性能或负载测试不匹配,您需要从集群内部启动这些测试,或者使用<code>NodePort

 类似资料:
  • 我的团队开发了一个kubernetes集群。我们已经使用< code>kubectl命令行对其进行了手动测试。这些测试用例涉及到,例如: < li >豆荚 < li >服务、负载平衡器等。 < li >部署 < li >水平窗格缩放 < li >回滚部署 < li >入口控制器 Helm-kubernetes的包装经理 < li >持久性卷和持久性卷声明。 < li>DNS 上述手动测试用例的链接

  • 我已经在Kubernetes上建立了Spark独立集群,并试图连接到Kubernetes上没有的Kerberized Hadoop集群。我已经将core-site.xml和hdfs-site.xml放在Spark集群的容器中,并相应地设置了HADOOP_CONF_DIR。我能够成功地在Spark容器中为访问Hadoop集群的principal生成kerberos凭据缓存。但是当我运行spark-s

  • 本文档最初是基于kubenetes1.6版本编写的,对于kuberentes1.8及以上版本同样适用,只是个别位置有稍许变动,变动的地方我将特别注明版本要求。 本系列文档介绍使用二进制部署 kubernetes 集群的所有步骤,而不是使用 kubeadm 等自动化方式来部署集群,同时开启了集群的TLS安全认证,该安装步骤适用于所有bare metal环境、on-premise环境和公有云环境。 如

  • 我正在使用一个安装了docker的docker映像,为了运行任务来清理我的kubernetes集群中每个节点上的docker映像数据。我尝试使用Daemonset,因为它将在除master之外的每个节点上运行,但是在docker容器中运行cron被证明是徒劳的。 因此,我尝试使用K8s Cronjob,它定期运行,具有以下属性: 和 我正在运行一个 shell 脚本,该脚本从上述 CronJob

  • 我正在kubernetes上试用最新版本的Flink1.5的flink工作。 我的问题是如何在上面的flink集群上运行一个示例应用程序。flink示例项目提供了如何使用flink应用程序构建docker映像并将该应用程序提交给flink的信息。我遵循了这个例子,只是把flink的版本改成了最新版本。我发现应用程序(example-app)提交成功,并且在kubernetes的pod中显示,但是f

  • 在k8s集群中。如何配置zeppelin在现有spark集群中运行spark作业,而不是旋转一个新的Pod? 我有一个k8s集群正在运行,我想在其中运行与齐柏林飞艇的火花。 Spark使用官方的Bitnami/Spark helm chart(v3.0.0)进行部署。我有一个主舱和两个工人舱运转良好,一切都很好。 短伪DockerFile: 我稍微修改了。(Image,imagePullSecre