我正在尝试根据官方文档中的清单文件在 openstack VM 中安装多主 openshift-3.11 安装程序。
https://docs . open shift . com/container-platform/3.11/install/example _ inventories . html # multi-masters-single-etcd-using-native-ha
[centos@master1 ~]$ oc version
oc v3.11.0+62803d0-1
kubernetes v1.11.0+d4cacc0
features: Basic-Auth GSSAPI Kerberos SPNEGO
Server https://master1.167.254.204.74.nip.io:8443
openshift v3.11.0+ff2bdbd-531
kubernetes v1.11.0+d4cacc0
根据此处提到的库存文件,启动okd-3.11多主机设置,https://docs.openshift.com/container-platform/3.11/install/example_inventories.html#multi-使用本地ha控制单个etcd
该设置是成功的,但遇到了如下所述的两个问题,
[centos@master1 ~]$ oc get nodes
NAME STATUS ROLES AGE VERSION
master1.167.254.204.74.nip.io Ready infra,master 6h v1.11.0+d4cacc0
master2.167.254.204.58.nip.io Ready infra,master 6h v1.11.0+d4cacc0
master3.167.254.204.59.nip.io Ready infra,master 6h v1.11.0+d4cacc0
node1.167.254.204.82.nip.io Ready compute 6h v1.11.0+d4cacc0
[centos@master2 ~]$ oc get nodes
Unable to connect to the server: dial tcp 167.254.204.74:8443: connect: no route to host
如果其他主节点(而不是master-1)或负载平衡器关闭,则OKD设置工作正常。
OKD设置应该启动了
库存文件:
[OSEv3:children]
masters
nodes
etcd
lb
[masters]
master1.167.254.204.74.nip.io
master2.167.254.204.58.nip.io
master3.167.254.204.59.nip.io
[etcd]
master1.167.254.204.74.nip.io
master2.167.254.204.58.nip.io
master3.167.254.204.59.nip.io
[lb]
lb.167.254.204.111.nip.io
[nodes]
master1.167.254.204.74.nip.io openshift_ip=167.254.204.74 openshift_schedulable=true openshift_node_group_name='node-config-master'
master2.167.254.204.58.nip.io openshift_ip=167.254.204.58 openshift_schedulable=true openshift_node_group_name='node-config-master'
master3.167.254.204.59.nip.io openshift_ip=167.254.204.59 openshift_schedulable=true openshift_node_group_name='node-config-master'
node1.167.254.204.82.nip.io openshift_ip=167.254.204.82 openshift_schedulable=true openshift_node_group_name='node-config-compute'
[OSEv3:vars]
debug_level=4
ansible_ssh_user=centos
ansible_become=true
ansible_ssh_common_args='-o StrictHostKeyChecking=no'
openshift_enable_service_catalog=true
ansible_service_broker_install=true
openshift_node_groups=[{'name': 'node-config-master', 'labels': ['node-role.kubernetes.io/master=true', 'node-role.kubernetes.io/infra=true']}, {'name': 'node-config-compute', 'labels': ['node-role.kubernetes.io/compute=true']}]
containerized=false
os_sdn_network_plugin_name='redhat/openshift-ovs-multitenant'
openshift_disable_check=disk_availability,docker_storage,memory_availability,docker_image_availability
deployment_type=origin
openshift_deployment_type=origin
openshift_release=v3.11.0
openshift_pkg_version=-3.11.0
openshift_image_tag=v3.11.0
openshift_service_catalog_image_version=v3.11.0
template_service_broker_image_version=v3.11
osm_use_cockpit=true
# put the router on dedicated infra1 node
openshift_master_cluster_method=native
openshift_master_default_subdomain=sub.master1.167.254.204.74.nip.io
openshift_public_hostname=master1.167.254.204.74.nip.io
openshift_master_cluster_hostname=master1.167.254.204.74.nip.io
请让我知道主节点1上的整个设置依赖关系,以及解决这个问题的任何工作。
您应该将 LB 主机名配置为 openshift_master_cluster_hostname
和 openshift_master_cluster_public_hostname
,而不是主主机名。作为您的配置,如果将其配置为 master1,则所有 API 入口点都将是 master1,因此如果 master1 停止,则所有 API 服务都将关闭。
您应该预先配置LB,以便对主节点进行负载平衡,并将LB IP(AKA VIP)注册到DNS,作为ocp-cluster.example.com
。此主机名将是OCP API的入口点,您可以使用openshift_master_cluster_hostname
和openshift_mater_cluster_public_hostname
来设置它。
openshift_master_cluster_method=native
openshift_master_cluster_hostname=ocp-cluster.example.com
openshift_master_cluster_public_hostname=ocp-cluster.example.com
本文向大家介绍Zookeeper 如何选举master 主节点?相关面试题,主要包含被问及Zookeeper 如何选举master 主节点?时的应答技巧和注意事项,需要的朋友参考一下 还记得上面我们的所说的临时节点吗?因为 的强一致性,能够很好地在保证 在高并发的情况下保证节点创建的全局唯一性 (即无法重复创建同样的节点)。 利用这个特性,我们可以 让多个客户端创建一个指定的节点 ,创建成功的就是
我正在运行MySQL作为Ubuntu实例上的数据库。我正在使用MySQL主从复制,其中主的更改将写入从,而从的更改将不会反映在主上。那很好。我正在使用一个HAProxy负载均衡器来前置MySQL实例,所有请求都将被发送到主MySQL实例。如果主MySQL实例被关闭,从MySQL实例将充当主实例,并且HAProxy将发送所有请求到salve。主动-被动方案。 让我们假设MySQL主机(192.168
我们有一个带有3个节点的ignite集群,所有服务都使用java瘦客户机连接到集群。 理想情况下,我们希望它回退到其他节点,因为集群中有其他节点可用。我们看到上面提到的逻辑是在ReliableChannel类的service方法中实现的。 在对象构造过程中没有实现回退而只在服务方法上有它(连接到其他节点的任何选项)有什么具体的原因吗? 还有,我们可以控制节点连接的顺序吗? ReliableChan
我想测试使用处理器API的Kafka Streams从源代码读取和写入主题列表时的场景,一个或两个主题是不可访问的(失败测试:试图通过添加集群中不存在的1/2主题来模拟它)。 我的理解是kafkaStreams应该为不存在的主题给出错误,并继续将记录转发到存在的主题1和主题2。 但我看到的行为是,它会产生以下错误: 这是模拟不可达主题或主题不存在问题的正确方式吗?为什么即使在处理Streams和拓
问题内容: 我想将Linux节点设置为Jenkins主服务器的从服务器。我正在阅读有关为Linux机器进行设置的教程。 通过SSH拥有主启动从属代理 Jenkins具有内置的SSH客户端实现,可用于与远程sshd对话并启动从属代理。这是Unix从属服务器最方便,首选的方法,该方法通常具有现成的sshd。单击管理Jenkins,然后单击管理节点,然后单击“新节点”。在此设置中,您将提供连接信息(从属