2014-04-16 3 views
3

J'ai créé un système de fichiers en cluster et répliquées sur 2 noeuds dans AWS EC2 en utilisant le lien suivant comme guide:GlusterFS serveur ne démarre pas après le redémarrage

http://www.gluster.org/category/aws-en/

  • J'utilise 2 nœuds AWS EC2
  • J'utilise une Ubuntu 13.10 (Saucy)
  • Avoir installé glusterfs-serveur à partir ppa: semiosis/ubuntu-glusterfs-3.4 repo

Il installe et configure très facilement et fonctionne très bien - jusqu'à ce que je redémarre un nœud. Une fois que j'ai configuré tout cela, je redémarre un seul nœud juste pour vérifier que tout revient, mais il ne le fait jamais. Cela ne fonctionne qu'après l'installation et la configuration sans redémarrage. Une fois que j'ai redémarré glusterfs-serveur ne démarre pas et je dois recréer l'instance entière à partir de zéro.

J'ai versé sur les journaux dans/var/log/glusterfs, exécutez glusterd en mode d'avant-plan, etc. Je ne reçois aucune réponse qui sautent aux yeux. Des erreurs sont affichées, mais Google ne vous aide pas beaucoup. Voici la sortie de glusterd en cours d'exécution au premier plan:

[email protected]:/var/log/glusterfs# /usr/sbin/glusterd -N -p /var/run/glusterd.pid 
librdmacm: couldn't read ABI version. 
librdmacm: assuming: 4 
CMA: unable to get RDMA device list 

Le journal des erreurs capture une start-up du mal qui se termine finalement à fermer, mais je n'ai pas été en mesure de déterminer une cause ou d'une solution:

[2014-04-16 19:58:09.925937] E [glusterd-store.c:2487:glusterd_resolve_all_bricks] 0-glusterd: resolve brick failed in restore 
[2014-04-16 19:58:09.925968] E [xlator.c:390:xlator_init] 0-management: Initialization of volume 'management' failed, review your volfile again 
[2014-04-16 19:58:09.926003] E [graph.c:292:glusterfs_graph_init] 0-management: initializing translator failed 
[2014-04-16 19:58:09.926019] E [graph.c:479:glusterfs_graph_activate] 0-graph: init failed 
[2014-04-16 19:58:09.926392] W [glusterfsd.c:1002:cleanup_and_exit] (-->/usr/sbin/glusterd(main+0x3df) [0x7f801961d8df] (-->/usr/sbin/glusterd(glusterfs_volumes_init+0xb0) [0x7f80196206e0] (-->/usr/sbin/glusterd(glusterfs_process_volfp+0x103) [0x7f80196205f3]))) 0-: received signum (0), shutting down 
[2014-04-16 20:40:20.992287] I [glusterfsd.c:1910:main] 0-/usr/sbin/glusterd: Started running /usr/sbin/glusterd version 3.4.3 (/usr/sbin/glusterd -N -p /var/run/glusterd.pid) 
[2014-04-16 20:40:20.996223] I [glusterd.c:961:init] 0-management: Using /var/lib/glusterd as working directory 
[2014-04-16 20:40:20.997685] I [socket.c:3480:socket_init] 0-socket.management: SSL support is NOT enabled 
[2014-04-16 20:40:20.997713] I [socket.c:3495:socket_init] 0-socket.management: using system polling thread 
[2014-04-16 20:40:20.999231] W [rdma.c:4197:__gf_rdma_ctx_create] 0-rpc-transport/rdma: rdma_cm event channel creation failed (No such device) 
[2014-04-16 20:40:20.999268] E [rdma.c:4485:init] 0-rdma.management: Failed to initialize IB Device 
[2014-04-16 20:40:20.999284] E [rpc-transport.c:320:rpc_transport_load] 0-rpc-transport: 'rdma' initialization failed 
[2014-04-16 20:40:20.999435] W [rpcsvc.c:1389:rpcsvc_transport_create] 0-rpc-service: cannot create listener, initing the transport failed 
[2014-04-16 20:40:23.858537] I [glusterd-store.c:1339:glusterd_restore_op_version] 0-glusterd: retrieved op-version: 2 
[2014-04-16 20:40:23.869829] E [glusterd-store.c:1858:glusterd_store_retrieve_volume] 0-: Unknown key: brick-0 
[2014-04-16 20:40:23.869880] E [glusterd-store.c:1858:glusterd_store_retrieve_volume] 0-: Unknown key: brick-1 
[2014-04-16 20:40:25.611295] E [glusterd-utils.c:4990:glusterd_friend_find_by_hostname] 0-management: error in getaddrinfo: Name or service not known 
[2014-04-16 20:40:25.612154] E [glusterd-utils.c:284:glusterd_is_local_addr] 0-management: error in getaddrinfo: Name or service not known 
[2014-04-16 20:40:25.612190] E [glusterd-store.c:2487:glusterd_resolve_all_bricks] 0-glusterd: resolve brick failed in restore 
[2014-04-16 20:40:25.612221] E [xlator.c:390:xlator_init] 0-management: Initialization of volume 'management' failed, review your volfile again 
[2014-04-16 20:40:25.612239] E [graph.c:292:glusterfs_graph_init] 0-management: initializing translator failed 
[2014-04-16 20:40:25.612254] E [graph.c:479:glusterfs_graph_activate] 0-graph: init failed 
[2014-04-16 20:40:25.612628] W [glusterfsd.c:1002:cleanup_and_exit] (-->/usr/sbin/glusterd(main+0x3df) [0x7fef3d7c58df] (-->/usr/sbin/glusterd(glusterfs_volumes_init+0xb0) [0x7fef3d7c86e0] (-->/usr/sbin/glusterd(glusterfs_process_volfp+0x103) [0x7fef3d7c85f3]))) 0-: received signum (0), shutting down 

J'ai trouvé un fil sur la liste Gluster utilisateur qui correspond jusqu'à, mais il n'est pas réglé:

http://www.gluster.org/pipermail/gluster-users/2013-October/037687.html

Si quelqu'un peut fournir tout w isdom - ce serait très apprécié.

Répondre

0

Pour référence ultérieure - Je n'utilisais pas le nom de domaine complet de la connexion par les pairs. J'utilisais seulement le nom d'hôte et j'avais révisé /etc/resolv.conf notre recherche suffixe DNS. Lors du redémarrage resolv.conf est réécrite par le client DHCP - brisant ainsi la résolution DNS des pairs. Apparemment, si les noms DNS ne sont pas résolus, les services ne démarreront même pas, ce qui pourrait être considéré comme un bug. Je pense que les services devraient toujours commencer indépendamment.

1

Essayez d'arrêter le volume:

gluster volume stop <volume name> 

Puis redémarrer avec la commande « force » pour reconstruire les métadonnées sur une base par brique:

gluster volume start <volume name> force 
+1

Vous ne pouvez pas émettre des commandes Gluster si le service est comme dans le cas de l'OP. Si DNS change vous pouvez remplacer manuellement les informations DNS ou IP dans les métadonnées de Gluster mais je vous recommande fortement de sauvegarder le répertoire/var/lib/glusterfs premier répertoire: https://www.gluster.org/pipermail/gluster- utilisateurs/2015-Juin/022264.html – DevOops

Questions connexes