2015-09-25 3 views
0

J'essaie de configurer un cluster ceph comme mentionné here.Impossible d'activer l'installation OSD - Ceph

C'est ce que je suis en train d'installer 4 machines virtuelles:

  • 1 groupe-admin
  • 1 nœud de surveillance
  • 2 nœud OSD

J'ai installé Ceph dans toutes les machines utilisant ceph-deploy et atteint jusqu'à l'étape pour préparer OSD

Mais quand je tente d'activer l'OSD, la commande se termine avec l'erreur

Commande:

ceph-deploy osd activate node1:/var/local/osd0 node2:/var/local/osd1 

Erreur:

filestore (/ var/local/osd0) attributs étendus n » t semblent fonctionner. Erreur (95) Opération non prise en charge. Si vous utilisez ext3 ou ext4, assurez-vous de monter le système de fichiers sous-jacent avec l'option 'user_xattr'. [node1] [Warnin] 24/09/2015 23: 11: 40,151434 7f252571d800 -1

Répondre

0

Trois est OSDs le minimum pour le travail correct, que je sache. C'est la première option.

Quel système d'exploitation utilisez-vous? J'ai eu quelques problèmes comme celui-ci sur CentOS 7.

0

utilisation 3 nœud pour le cluster osd

vérifier la météo cela fonctionne utilisez la commande sudo mkfs -t {fstype}/dev/{} disque

0

Si vous voulez pour l'activer dans le chemin du dossier, la seule possibilité que j'ai trouvé la création du osd0, 1, 2, etc. dans:

/var/lib/ceph/osd/ 

Alors vous pourriez envisager de quitter/var sous la racine lors de l'installation du système d'exploitation ou d'allouer plus d'espace pour la partition/var.

Aussi assurez-vous un commentaire dans sudoers (visudo) la ligne:

Default requiretty 

Si vous avez seulement 2 OSD vous pouvez spécifier le numéro de ceph.conf de répliques dans la section [global], ajoutez la ligne :

osd pool default size = 2 

il pourrait fonctionner, mais pour le respect que la valeur par défaut de 3 OSDs

it helps ... aujourd'hui j'ai réussi à lancer mon 1er groupe et CephFs après 6 heures de travail :), mais je `m stupide.