2016-12-28 1 views
3

J'utilise kubeadm init pour init Kubernetes et j'utilise kubeadm reset pour le réinitialiser quand j'ai trouvé --pod-network-cidr était faux. Après correction, j'ai essayé d'utiliser kubeadm init Kubernetes à nouveau commeKubernetes n'a pas réussi à configurer le réseau pour pod après l'exécution de kubeadm reset

kubeadm init --use-kubernetes-version v1.5.1 --external-etcd endpoints=http://10.111.125.131:2379 --pod-network-cidr=10.244.0.0/16 

J'ai eu quelques erreurs sur les nœuds

12月 28 15:30:55 ydtf-node-137 kubelet[13333]: E1228 15:30:55.838700 13333 cni.go:255] Error adding network: no IP addresses available in network: cbr0 
12月 28 15:30:55 ydtf-node-137 kubelet[13333]: E1228 15:30:55.838727 13333 cni.go:209] Error while adding to cni network: no IP addresses available in network: cbr0 
12月 28 15:30:55 ydtf-node-137 kubelet[13333]: E1228 15:30:55.838781 13333 docker_manager.go:2201] Failed to setup network for pod "test-701078429-tl3j2_default(6945191b-ccce-11e6-b53d-78acc0f9504e)" using network plugins "cni": no IP addresses available in network: cbr0; Skipping pod 
12月 28 15:30:56 ydtf-node-137 kubelet[13333]: E1228 15:30:56.205596 13333 pod_workers.go:184] Error syncing pod 6945191b-ccce-11e6-b53d-78acc0f9504e, skipping: failed to "SetupNetwork" for "test-701078429-tl3j2_default" with SetupNetworkError: "Failed to setup network for pod \"test-701078429-tl3j2_default(6945191b-ccce-11e6-b53d-78acc0f9504e)\" using network plugins \"cni\": no IP addresses available in network: cbr0; Skipping pod" 

ou

Dec 29 10:20:02 ydtf-node-137 kubelet: E1229 10:20:02.065142 22259 pod_workers.go:184] Error syncing pod 235cd9c6-cd6c-11e6-a9cd-78acc0f9504e, skipping: failed to "SetupNetwork" for "test-701078429-zmkdf_def ault" with SetupNetworkError: "Failed to setup network for pod \"test-701078429-zmkdf_default(235cd9c6-cd6c-11e6-a9cd-78acc0f9504e)\" using network plugins \"cni\": \"cni0\" already has an IP address different from 10.244.1.1/24; Skipping pod"

Pourquoi ne puis-je créer un réseau pour les nouveaux pods? Par ailleurs, j'utilise flannel comme fournisseur de réseau et cela fonctionne très bien.

[[email protected] k8s151]# kubectl get pods --all-namespaces -o wide 
NAMESPACE  NAME          READY  STATUS      RESTARTS AGE  IP    NODE 
default  test-701078429-tl3j2      0/1  ContainerCreating 0   2h  <none>   ydtf-node-137 
kube-system dummy-2088944543-hd7b7     1/1  Running    0   2h  10.111.125.131 ydtf-master-131 
kube-system kube-apiserver-ydtf-master-131   1/1  Running    7   2h  10.111.125.131 ydtf-master-131 
kube-system kube-controller-manager-ydtf-master-131 1/1  Running    0   2h  10.111.125.131 ydtf-master-131 
kube-system kube-discovery-1769846148-bjgp8   1/1  Running    0   2h  10.111.125.131 ydtf-master-131 
kube-system kube-dns-2924299975-q8x2m     4/4  Running    0   2h  10.244.0.3  ydtf-master-131 
kube-system kube-flannel-ds-3fsjh      2/2  Running    0   2h  10.111.125.137 ydtf-node-137 
kube-system kube-flannel-ds-89r72      2/2  Running    0   2h  10.111.125.131 ydtf-master-131 
kube-system kube-proxy-7w8c4       1/1  Running    0   2h  10.111.125.137 ydtf-node-137 
kube-system kube-proxy-jk6z6       1/1  Running    0   2h  10.111.125.131 ydtf-master-131 
kube-system kube-scheduler-ydtf-master-131   1/1  Running    0   2h  10.111.125.131 ydtf-master-131 

Répondre

5

je comprendre, si vous changez --pod-network-cidr lorsque vous Kubernetes via réinitialisez kubeadm initialisation, vous devez supprimer certaines choses créées automatiquement, il suffit de suivre les étapes ci-dessous avant exécuter kubeadm initialisation nouveau:

  1. execute Kubeadm reset sur le maître et les nœuds.

  2. execute etcdctl rm Registre --recursive données Remise à zéro ETCD.

  3. rm -rf/var/lib/cni sur le maître et les noeuds
  4. rm -rf/run/flanelle sur le maître et les noeuds
  5. rm -rf/etc/cni sur le maître et noeuds
  6. ifconfig cni0 vers le bas sur maître et les noeuds
  7. brctl delbr cni0 sur le maître et les noeuds

Maintenant, mes kubernets fonctionne très bien :)

0

J'ai eu un problème similaire et le correctif dans ce cas était d'appliquer le réseau pod flanelle au cluster:

wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml 
kubectl apply -f kube-flannel.yml 
0

J'ai eu un problème après changement de --pod-network-cidr, avec join signalant le succès, mais aucun nœud en cours d'ajout. kubeadm reset et re-rejoindre n'avait aucun effet. Résolu à apt-get remove kubelet kubeadm kubectl kubernetes-cni après la réinitialisation, suivi du docker et/ou du redémarrage de la machine, suivi d'une réinstallation, puis join agin.