k8s如何解决节点状态为NotReady的部署问题-创新互联-成都创新互联网站建设

关于创新互联

多方位宣传企业产品与服务 突出企业形象

公司简介 公司的服务 荣誉资质 新闻动态 联系我们

k8s如何解决节点状态为NotReady的部署问题-创新互联

这篇文章给大家分享的是有关k8s如何解决节点状态为 NotReady的部署问题的内容。小编觉得挺实用的,因此分享给大家做个参考。一起跟随小编过来看看吧。

创新互联建站从2013年成立,先为宿豫等服务建站,宿豫等地企业,进行企业商务咨询服务。为宿豫企业网站制作PC+手机+微官网三网同步一站式服务解决您的所有建站问题。

问题

使用kubectl get nodes查看已加入的节点时,出现了Status为NotReady的情况。

root@master1:~# kubectl get nodes
NAME      STATUS      ROLES    AGE    VERSION
master1   NotReady    master   152m   v1.18.1
worker1   NotReady       94m    v1.18.1

这种情况是因为有某些关键的 pod 没有运行起来,首先使用如下命令来看一下kube-system的 pod 状态:

kubectl get pod -n kube-system
NAME                              READY   STATUS             RESTARTS   AGE
coredns-bccdc95cf-792px           1/1     Pending            0          3h11m
coredns-bccdc95cf-bc76j           1/1     Pending            0          3h11m
etcd-master1                      1/1     Running            2          3h10m
kube-apiserver-master1            1/1     Running            2          3h11m
kube-controller-manager-master1   1/1     Running            2          3h10m
kube-flannel-ds-amd64-9trbq       0/1     ImagePullBackoff   0          133m
kube-flannel-ds-amd64-btt74       0/1     ImagePullBackoff   0          174m
kube-proxy-27zfk                  1/1     Pending            2          3h11m
kube-proxy-lx4gk                  1/1     Pending            0          133m
kube-scheduler-master1            1/1     Running            2          3h11m

如上,可以看到 pod kube-flannel 的状态是ImagePullBackoff,意思是镜像拉取失败了,所以我们需要手动去拉取这个镜像。这里可以看到某些 pod 运行了两个副本是因为我有两个节点存在了。

你也可以通过kubectl describe pod -n kube-system<服务名>来查看某个服务的详细情况,如果 pod 存在问题的话,你在使用该命令后在输出内容的最下面看到一个[Event]条目,如下:

root@master1:~# kubectl describe pod kube-flannel-ds-amd64-9trbq -n kube-system

...

Events:
  Type     Reason                  Age                 From              Message
  ----     ------                  ----                ----              -------
  Normal   Killing                 29m                 kubelet, worker1  Stopping container kube-flannel
  Warning  FailedCreatePodSandBox  27m (x12 over 29m)  kubelet, worker1  Failed create pod sandbox: rpc error: code = Unknown desc = failed to create a sandbox for pod "kube-flannel-ds-amd64-9trbq": Error response from daemon: cgroup-parent for systemd cgroup should be a valid slice named as "xxx.slice"
  Normal   SandboxChanged          19m (x48 over 29m)  kubelet, worker1  Pod sandbox changed, it will be killed and re-created.
  Normal   Pulling                 42s                 kubelet, worker1  Pulling image "quay.io/coreos/flannel:v0.11.0-amd64"

手动拉取镜像

flannel的镜像可以使用如下命令拉到,如果你是其他镜像没拉到的话,百度一下就可以找到国内的镜像源地址了,这里记得把最后面的版本号修改成你自己的版本,具体的版本号可以用上面说的kubectl describe命令看到:

拉去镜像:

docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64

等镜像拉取完了之后需要把镜像名改一下,改成 k8s 没有拉到的那个镜像名称,我这里贴的镜像名和版本和你的不一定一样,注意修改:

docker tag quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64

修改完了之后过几分钟 k8s 会自动重试,等一下就可以发现不仅flannel正常了,其他的 pod 状态也都变成了Running,这时再看 node 状态就可以发现问题解决了:

[kubeadm@server1 ~]$ kubectl get nodes
NAME      STATUS   ROLES    AGE    VERSION
server1   Ready    master   150m   v1.18.1
server2   Ready       150m   v1.18.1
server3   Ready       150m   v1.18.1
[kubeadm@server1 ~]$

k8s如何解决节点状态为 NotReady的部署问题

感谢各位的阅读!关于k8s如何解决节点状态为 NotReady的部署问题就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到吧!


本文标题:k8s如何解决节点状态为NotReady的部署问题-创新互联
地址分享:http://kswsj.cn/article/cdgijg.html

其他资讯