正在等待,服务endpoint尚未就绪。
Minikube版本:V0.20.0
环境:
{ "kind": "Status", "apiVersion": "v1", "metadata": {}, "status": "Failure", "message": "no endpoints available for service "kubernetes-dashboard"", "reason": "ServiceUnavailable", "code": 503 }
Waiting, endpoint for service is not ready yet...
Waiting, endpoint for service is not ready yet...
Waiting, endpoint for service is not ready yet...
Waiting, endpoint for service is not ready yet...
.......
Could not find finalized endpoint being pointed to by kubernetes-dashboard: Temporary Error: Endpoint for service is not ready yet
Temporary Error: Endpoint for service is not ready yet
Temporary Error: Endpoint for service is not ready yet
Temporary Error: Endpoint for service is not ready yet
minikube日志还报告了以下错误:.....
Jul 10 08:46:12 minikube localkube[3237]: I0710 08:46:12.901880 3237 kuberuntime_manager.go:458] Container {Name:php-redis Image:gcr.io/google-samples/gb-frontend:v4 Command:[] Args:[] WorkingDir: Ports:[{Name: HostPort:0 ContainerPort:80 Protocol:TCP HostIP:}] EnvFrom:[] Env:[{Name:GET_HOSTS_FROM Value:dns ValueFrom:nil}] Resources:{Limits:map[] Requests:map[cpu:{i:{value:100 scale:-3} d:{Dec:} s:100m Format:DecimalSI} memory:{i:{value:104857600 scale:0} d:{Dec:} s:100Mi Format:BinarySI}]} VolumeMounts:[{Name:default-token-gqtvf ReadOnly:true MountPath:/var/run/secrets/kubernetes.io/serviceaccount SubPath:}] LivenessProbe:nil ReadinessProbe:nil Lifecycle:nil TerminationMessagePath:/dev/termination-log TerminationMessagePolicy:File ImagePullPolicy:IfNotPresent SecurityContext:nil Stdin:false StdinOnce:false TTY:false} is dead, but RestartPolicy says that we should restart it. Jul 10 08:46:14 minikube localkube[3237]: E0710 08:46:14.139555 3237 remote_runtime.go:86] RunPodSandbox from runtime service failed: rpc error: code = 2 desc = unable to pull sandbox image "gcr.io/google_containers/pause-amd64:3.0": Error response from daemon: Get https://gcr.io/v1/_ping: x509: certificate signed by unknown authority ....
名称:kubernetes-dashboard-2039414953-czptd命名空间:kube-system节点:minikube/192.168.99.102开始时间:2017年7月14日星期五09:31:58+0530标签:k8s-app=kubernetes-dashboard pod-template-hash=2039414953注释:kubernetes.io/created-by={“kind”:“serializedreference”,“apiversion”:“v1”,“reference”:{“kind”:“replicaset”,“namespace”:“kube-system ID”:“2EB39682-6849-11E7-8....状态:挂起IP:创建者:replicaset/kubernetes-dashboard-2039414953控制者:replicaset/kubernetes-dashboard-2039414953容器:
kubernetes-dashboard:Container ID:Image:gcr.io/google_containers/kubernetes-dashboard-amd64:v1.6.1图像ID:
端口:9090/tcp状态:等待原因:容器创建就绪:False Restart count:0 liventy:http-get 3环境:mounts://var/run/secrets/kubernetes.io/serviceaccount from kubernetes-dashboard-token-12gdj(ro)条件:Type status
初始化的True Ready False poddetureded True volumes:
kubernetes-dashboard-token-12gdj:类型:Secret(由Secret填充的卷)secretname:kubernetes-dashboard-token-12gdj可选:false QoS类:BestEffort节点选择器:容忍:node-role.kubernetes.io/master:noSchedule事件:
第一次看到的LastSeen Count From SubObjectPath Type原因消息
------------------------------------------------------------------------Bernetes-dashboard-2039414953-czptd_kube-system(2EB57D9B-6849-11E7-8A56-080027206461)“带有createPodsandboxerror:”createPodsandbox for pod\“kubernetes-dashboard-2039414953-czptd_kube-system(2EB57D9B-6849-11E7-8A56-080027206461)\”失败:rpc错误:code=2 desc=无法拉出沙盒图像\“gcr.io/google_containers/pause-amd64:3.0\://gcr.io/v1/_ping:x509:证书由未知权威签署”
很可能正在下载吊舱容器图像。图像不是很大,所以图像应该在一个体面的互联网连接上下载得很快。
您可以使用kubectl description pod--namespace kube-system
了解有关pod prop up状态的更多细节。查看输出的events
部分。
在kube-system
命名空间中的所有kubernetes组件都处于ready
状态之前,您将无法访问仪表板。
我正在评估Kubernetes作为我们新应用程序的平台。现在看来,这一切都非常令人兴奋!但是,我遇到了一个问题:我在GCE上托管集群,需要某种机制在两个POD(持续集成服务器和应用服务器)之间共享存储。对库伯内特斯来说,最好的方法是什么?所有的卷类型似乎都不适合我的需要,因为如果一个pod需要写入磁盘,GCE磁盘就不能共享。NFS将是完美的,但似乎需要kubernetes集群的特殊构建选项? 编辑
我在Linux服务器的Kubernetes上安装了带有2或3个pod的Spring Boot应用程序。为了监控它,我也安装了普罗米修斯。目前,从应用程序到普罗米修斯的衡量标准进展顺利。 但我怀疑普罗米修斯只从一个豆荚中提取指标。对于普罗米修斯配置文件中的如下作业,普罗米修斯是否只从一个pod中获取指标?我怎样才能让普罗米修斯同时刮掉所有的豆荚呢?
我试图删除一个带有12个pod的,我可以看到一些pod被困在状态。 我的Kubernetes集群由一个控制平面节点和三个安装在Ubuntu虚拟机上的工作节点组成。 这个问题的原因可能是什么?
我正在运行许多CronJobs来自动化我的家庭服务器上的任务。当一个作业运行并且其pod完成时,我可以使用
环境*Kubernetes 1.9.3*使用在AWS(专用网络拓扑)上运行的kops(V1.8)创建的集群*网络:weave-net*集群:1主,3节点 事件实例时间线 > 我们已经使用kops执行了滚动集群更新,以使用我们构建的新AMI(基于kops AMI k8s-1.8-debian-jessie-amd64-hvm-ebs-2017-11-27)启动节点和主机。调整kops AMI从来都不
PostgreService.yaml 已创建服务的终结点为 然后我在pod(kubectl exec-it mark-dummy-pod bash)内运行ping172.31.6.149,但不工作。(ping localhost正在工作)