在加入集群的时候nede节点出了问题,无法加入或者加入之后一直是不能用的状态。我们可以先存集群中这个故障节点删除,再重新加入,前提是这个节点没有任何pod在运行
kubectl get node
为了安全期间还是查一下,防止删除错误。
kubectl get pods -o wide | grep node3
kubectl delete node node3
如果需要重新加入
在删除的node3对应的服务器上执行:
kubeadm reset
有时候我们在使用的过程中由于故障或者其他等原因,需要节点退出集群,这个时候里面还有运行的pod等资源。我们就需要先设置不可调度,然后驱逐上面运行的pod,然后在进行删除。
在master 执行,以k8s-node-1为例:
kubectl cordon k8s-node-1
kubectl uncordon k8s-node-1 #取消
kubectl drain --ignore-daemonsets k8s-node-1
kubectl delete node k8s-node-1