当前位置: 首页 > 知识库问答 >
问题:

如果master-1节点关闭,则多主机OKD-3.11设置失败

戈巴英
2023-03-14

我正在尝试根据官方文档中的清单文件在 openstack VM 中安装多主 openshift-3.11 安装程序。

https://docs . open shift . com/container-platform/3.11/install/example _ inventories . html # multi-masters-single-etcd-using-native-ha

[centos@master1 ~]$ oc version
oc v3.11.0+62803d0-1
kubernetes v1.11.0+d4cacc0
features: Basic-Auth GSSAPI Kerberos SPNEGO

Server https://master1.167.254.204.74.nip.io:8443
openshift v3.11.0+ff2bdbd-531
kubernetes v1.11.0+d4cacc0

根据此处提到的库存文件,启动okd-3.11多主机设置,https://docs.openshift.com/container-platform/3.11/install/example_inventories.html#multi-使用本地ha控制单个etcd

该设置是成功的,但遇到了如下所述的两个问题,

  1. 无法在发出“oc get节点”命令时列出负载均衡器节点。
[centos@master1 ~]$ oc get nodes
NAME                            STATUS    ROLES          AGE       VERSION
master1.167.254.204.74.nip.io   Ready     infra,master   6h        v1.11.0+d4cacc0
master2.167.254.204.58.nip.io   Ready     infra,master   6h        v1.11.0+d4cacc0
master3.167.254.204.59.nip.io   Ready     infra,master   6h        v1.11.0+d4cacc0
node1.167.254.204.82.nip.io     Ready     compute        6h        v1.11.0+d4cacc0
[centos@master2 ~]$ oc get nodes
Unable to connect to the server: dial tcp 167.254.204.74:8443: connect: no route to host

如果其他主节点(而不是master-1)或负载平衡器关闭,则OKD设置工作正常。

OKD设置应该启动了

库存文件:

[OSEv3:children]
masters
nodes
etcd
lb

[masters]
master1.167.254.204.74.nip.io
master2.167.254.204.58.nip.io
master3.167.254.204.59.nip.io

[etcd]
master1.167.254.204.74.nip.io
master2.167.254.204.58.nip.io
master3.167.254.204.59.nip.io

[lb]
lb.167.254.204.111.nip.io

[nodes]
master1.167.254.204.74.nip.io openshift_ip=167.254.204.74 openshift_schedulable=true openshift_node_group_name='node-config-master'
master2.167.254.204.58.nip.io openshift_ip=167.254.204.58 openshift_schedulable=true openshift_node_group_name='node-config-master'
master3.167.254.204.59.nip.io openshift_ip=167.254.204.59 openshift_schedulable=true openshift_node_group_name='node-config-master'
node1.167.254.204.82.nip.io openshift_ip=167.254.204.82 openshift_schedulable=true openshift_node_group_name='node-config-compute'

[OSEv3:vars]
debug_level=4
ansible_ssh_user=centos
ansible_become=true
ansible_ssh_common_args='-o StrictHostKeyChecking=no'
openshift_enable_service_catalog=true
ansible_service_broker_install=true

openshift_node_groups=[{'name': 'node-config-master', 'labels': ['node-role.kubernetes.io/master=true', 'node-role.kubernetes.io/infra=true']}, {'name': 'node-config-compute', 'labels': ['node-role.kubernetes.io/compute=true']}]

containerized=false
os_sdn_network_plugin_name='redhat/openshift-ovs-multitenant'
openshift_disable_check=disk_availability,docker_storage,memory_availability,docker_image_availability

deployment_type=origin
openshift_deployment_type=origin

openshift_release=v3.11.0
openshift_pkg_version=-3.11.0
openshift_image_tag=v3.11.0
openshift_service_catalog_image_version=v3.11.0
template_service_broker_image_version=v3.11
osm_use_cockpit=true

# put the router on dedicated infra1 node
openshift_master_cluster_method=native
openshift_master_default_subdomain=sub.master1.167.254.204.74.nip.io
openshift_public_hostname=master1.167.254.204.74.nip.io
openshift_master_cluster_hostname=master1.167.254.204.74.nip.io

请让我知道主节点1上的整个设置依赖关系,以及解决这个问题的任何工作。

共有1个答案

卜季萌
2023-03-14

您应该将 LB 主机名配置为 openshift_master_cluster_hostnameopenshift_master_cluster_public_hostname,而不是主主机名。作为您的配置,如果将其配置为 master1,则所有 API 入口点都将是 master1,因此如果 master1 停止,则所有 API 服务都将关闭。

您应该预先配置LB,以便对主节点进行负载平衡,并将LB IP(AKA VIP)注册到DNS,作为ocp-cluster.example.com。此主机名将是OCP API的入口点,您可以使用openshift_master_cluster_hostnameopenshift_mater_cluster_public_hostname来设置它。

openshift_master_cluster_method=native
openshift_master_cluster_hostname=ocp-cluster.example.com
openshift_master_cluster_public_hostname=ocp-cluster.example.com
 类似资料:
  • 本文向大家介绍Zookeeper 如何选举master 主节点?相关面试题,主要包含被问及Zookeeper 如何选举master 主节点?时的应答技巧和注意事项,需要的朋友参考一下 还记得上面我们的所说的临时节点吗?因为 的强一致性,能够很好地在保证 在高并发的情况下保证节点创建的全局唯一性 (即无法重复创建同样的节点)。 利用这个特性,我们可以 让多个客户端创建一个指定的节点 ,创建成功的就是

  • 我正在运行MySQL作为Ubuntu实例上的数据库。我正在使用MySQL主从复制,其中主的更改将写入从,而从的更改将不会反映在主上。那很好。我正在使用一个HAProxy负载均衡器来前置MySQL实例,所有请求都将被发送到主MySQL实例。如果主MySQL实例被关闭,从MySQL实例将充当主实例,并且HAProxy将发送所有请求到salve。主动-被动方案。 让我们假设MySQL主机(192.168

  • 我们有一个带有3个节点的ignite集群,所有服务都使用java瘦客户机连接到集群。 理想情况下,我们希望它回退到其他节点,因为集群中有其他节点可用。我们看到上面提到的逻辑是在ReliableChannel类的service方法中实现的。 在对象构造过程中没有实现回退而只在服务方法上有它(连接到其他节点的任何选项)有什么具体的原因吗? 还有,我们可以控制节点连接的顺序吗? ReliableChan

  • 我想测试使用处理器API的Kafka Streams从源代码读取和写入主题列表时的场景,一个或两个主题是不可访问的(失败测试:试图通过添加集群中不存在的1/2主题来模拟它)。 我的理解是kafkaStreams应该为不存在的主题给出错误,并继续将记录转发到存在的主题1和主题2。 但我看到的行为是,它会产生以下错误: 这是模拟不可达主题或主题不存在问题的正确方式吗?为什么即使在处理Streams和拓

  • 问题内容: 我想将Linux节点设置为Jenkins主服务器的从服务器。我正在阅读有关为Linux机器进行设置的教程。 通过SSH拥有主启动从属代理 Jenkins具有内置的SSH客户端实现,可用于与远程sshd对话并启动从属代理。这是Unix从属服务器最方便,首选的方法,该方法通常具有现成的sshd。单击管理Jenkins,然后单击管理节点,然后单击“新节点”。在此设置中,您将提供连接信息(从属