以下是两位工作人员的日志,这将有助于强调这个问题:
工人-0:
root@worker-0:/home/admin# ip addr show eth0 | grep 'inet '
inet 10.240.1.230/24 brd 10.240.1.255 scope global eth0
root@worker-0:/home/admin# traceroute 10.200.1.10 -n -i cnio0 -I -m 5
traceroute to 10.200.1.10 (10.200.1.10), 5 hops max, 60 byte packets
1 10.200.1.10 0.135 ms 0.079 ms 0.073 ms
root@worker-0:/home/admin# ping 10.240.1.232
PING 10.240.1.232 (10.240.1.232) 56(84) bytes of data.
64 bytes from 10.240.1.232: icmp_seq=1 ttl=64 time=0.151 ms
^C
--- 10.240.1.232 ping statistics ---
1 packets transmitted, 1 received, 0% packet loss, time 0ms
rtt min/avg/max/mdev = 0.151/0.151/0.151/0.000 ms
root@worker-0:/home/admin# traceroute 10.200.3.5 -g 10.240.1.232 -n -i eth0 -I -m 5
traceroute to 10.200.3.5 (10.200.3.5), 5 hops max, 72 byte packets
1 * * *
2 * * *
3 * * *
4 * * *
5 * * *
root@worker-0:/home/admin#
工人2:
root@worker-2:/home/admin# ip addr show eth0 | grep 'inet '
inet 10.240.1.232/24 brd 10.240.1.255 scope global eth0
root@worker-2:/home/admin# traceroute 10.200.3.5 -n -i cnio0 -I -m 5
traceroute to 10.200.3.5 (10.200.3.5), 5 hops max, 60 byte packets
1 10.200.3.5 0.140 ms 0.077 ms 0.072 ms
root@worker-2:/home/admin# ping 10.200.3.5
PING 10.200.3.5 (10.200.3.5) 56(84) bytes of data.
64 bytes from 10.200.3.5: icmp_seq=1 ttl=64 time=0.059 ms
64 bytes from 10.200.3.5: icmp_seq=2 ttl=64 time=0.047 ms
^C
--- 10.200.3.5 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1017ms
rtt min/avg/max/mdev = 0.047/0.053/0.059/0.006 ms
root@worker-2:/home/admin#
admin@ip-10-240-1-250:~$ kubectl get pods
busybox-68654f944b-vjs2s 1/1 Running 69 2d
busybox0-7665ddff5d-2856g 1/1 Running 69 2d
busybox1-f9585ffdb-tg2lj 1/1 Running 68 2d
busybox2-78c5d7bdb6-fhfdc 1/1 Running 68 2d
busybox3-74fd4b4f98-pp4kz 1/1 Running 69 2d
busybox4-55d568f8c4-q9hk9 1/1 Running 68 2d
busybox5-69f77b4fdb-d7jf2 1/1 Running 68 2d
busybox6-b5b869f4-2vnkz 1/1 Running 69 2d
busybox7-7df7958c4b-4bxzx 0/1 Completed 68 2d
busybox8-6d78f4f5d6-cvfx7 1/1 Running 69 2d
busybox9-86d49fdf4-75ddn 1/1 Running 68 2d
root@worker-0:/home/admin# ip addr show eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 9001 qdisc mq state UP group default qlen 1000
link/ether 02:2b:ed:df:b7:58 brd ff:ff:ff:ff:ff:ff
inet 10.240.1.230/24 brd 10.240.1.255 scope global eth0
valid_lft forever preferred_lft forever
inet6 fe80::2b:edff:fedf:b758/64 scope link
valid_lft forever preferred_lft forever
root@worker-0:/home/admin# route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 10.240.1.1 0.0.0.0 UG 0 0 0 eth0
10.200.1.0 0.0.0.0 255.255.255.0 U 0 0 0 cnio0
10.240.1.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
root@worker-2:/home/admin# ip addr show eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 9001 qdisc mq state UP group default qlen 1000
link/ether 02:b0:2b:67:73:9e brd ff:ff:ff:ff:ff:ff
inet 10.240.1.232/24 brd 10.240.1.255 scope global eth0
valid_lft forever preferred_lft forever
inet6 fe80::b0:2bff:fe67:739e/64 scope link
valid_lft forever preferred_lft forever
root@worker-2:/home/admin# route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 10.240.1.1 0.0.0.0 UG 0 0 0 eth0
10.200.3.0 0.0.0.0 255.255.255.0 U 0 0 0 cnio0
10.240.1.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
您的节点缺少到其他节点吊舱子网的路由。
要使其工作,您需要在辅助节点上添加静态路由,或者在默认网关10.240.1.1
上添加到所有pods子网的路由
第一种情况:
route add -net 10.200.3.0/24 netmask 255.255.255.0 gw 10.240.1.232
route add -net 10.200.1.0/24 netmask 255.255.255.0 gw 10.240.1.230
在默认路由器(10.240.1.1
)上:
route add -net 10.200.3.0/24 netmask 255.255.255.0 gw 10.240.1.232
route add -net 10.200.1.0/24 netmask 255.255.255.0 gw 10.240.1.230
在这种情况下,流量将通过默认路由器进行路由,如果向集群中添加新节点,则只需更新默认路由器上的一个路由表。
此解决方案用于“Kubernetes hard Way”的路由部分。
本文将有助于使用AWS CLI创建路由。
并且不能ping它在其他节点上的副本。 以下是主机接口: 节点上的进程:
null null 在节点上:在节点上,我执行了命令,使用了从主服务器上的打印出来的命令
使用复制控制器,当我调度一个pod的2个(两个)副本时,我期望每个节点中各有1个(一个)副本。相反,我发现两个副本都是在同一个吊舱中创建的。这将使1个节点成为我需要避免的单点故障。 对于2个pod:节点A中的1个pod,节点B中的1个pod 对于3个吊舱:节点A中的2个吊舱,节点B中的1个吊舱,kubernetes可以根据资源可用性进行调度 有没有正确配置的建议吗?
PostgreService.yaml 已创建服务的终结点为 然后我在pod(kubectl exec-it mark-dummy-pod bash)内运行ping172.31.6.149,但不工作。(ping localhost正在工作)
我在一个有3个节点的kubernetes集群上运行nginx。 我想知道是否有任何好处,例如,有4个豆荚和限制他们的CPU/MEM约。节点容量的1/4相对于每个节点运行一个pod,限制CPU/MEM,以便pod可以使用整个节点的资源(为了简单起见,我们将cubernet服务排除在等式之外)。 我的感觉是,豆荚越少,开销就越小,每个节点使用1个豆荚应该是性能最好的? 提前致谢
云计算 云计算节点网卡配置无误,仅主机模式ping不通物理机 后来在网络虚拟编辑器中开了以下选项 可以ping通物理机 但是问题是这是一个双网卡机器,并且仅主机模式配置了静态IP,为什么会连不上,为什么开启“使用本地DHCP服务将IP地址分配给虚拟机”便可以连接上? 1.网卡配置 2.防火墙关闭 3.selinux关闭 4.各种服务重启