2017-03-20 2 views
0

J'essaye d'installer Ceph dans deux instances ec2, suivant ce guide mais je ne peux pas créer le osd. Mon groupe ne dispose que de deux serveurs et il ne parvient pas à créer une partition lorsque vous utilisez cette commande:Ceph EC2 installation n'a pas réussi à créer osd

ceph-deploy osd create host:xvdb:/dev/xvdb1 host:xvdf:/dev/xvdf1 

[WARNIN] command_check_call: Running command: /sbin/mkfs -t xfs -K -f -- /dev/xvdf1 
[WARNIN] can't get size of data subvolume 
[WARNIN] Usage: mkfs.xfs 
[WARNIN] /* blocksize */  [-b log=n|size=num] 
[WARNIN] /* metadata */  [-m crc=0|1,finobt=0|1,uuid=xxx] 
[WARNIN] /* data subvol */ [-d agcount=n,agsize=n,file,name=xxx,size=num, 
[WARNIN]    (sunit=value,swidth=value|su=num,sw=num|noalign), 
[WARNIN]    sectlog=n|sectsize=num 
[WARNIN] /* force overwrite */ [-f] 
[WARNIN] /* inode size */ [-i log=n|perblock=n|size=num,maxpct=n,attr=0|1|2, 
[WARNIN]    projid32bit=0|1] 
[WARNIN] /* no discard */ [-K] 
[WARNIN] /* log subvol */ [-l agnum=n,internal,size=num,logdev=xxx,version=n 
[WARNIN]    sunit=value|su=num,sectlog=n|sectsize=num, 
[WARNIN]    lazy-count=0|1] 
[WARNIN] /* label */  [-L label (maximum 12 characters)] 
[WARNIN] /* naming */  [-n log=n|size=num,version=2|ci,ftype=0|1] 
[WARNIN] /* no-op info only */ [-N] 
[WARNIN] /* prototype file */ [-p fname] 
[WARNIN] /* quiet */  [-q] 
[WARNIN] /* realtime subvol */ [-r extsize=num,size=num,rtdev=xxx] 
[WARNIN] /* sectorsize */ [-s log=n|size=num] 
[WARNIN] /* version */  [-V] 
[WARNIN]   devicename 
[WARNIN] <devicename> is required unless -d name=xxx is given. 
[WARNIN] <num> is xxx (bytes), xxxs (sectors), xxxb (fs blocks), xxxk (xxx KiB), 
[WARNIN]  xxxm (xxx MiB), xxxg (xxx GiB), xxxt (xxx TiB) or xxxp (xxx PiB). 
[WARNIN] <value> is xxx (512 byte blocks). 
[WARNIN] '/sbin/mkfs -t xfs -K -f -- /dev/xvdf1' failed with status code 1 
[ERROR ] RuntimeError: command returned non-zero exit status: 1 
[ceph_deploy.osd][ERROR ] Failed to execute command: /usr/sbin/ceph-disk -v prepare --cluster ceph --fs-type xfs -- /dev/xvdf /dev/xvdf1 
[ceph_deploy][ERROR ] GenericError: Failed to create 2 OSDs 

La même erreur se produit dans les deux disques que je suis en train de créer l'OSD C'est le ceph.conf fichier que j'utilise:

fsid = b3901613-0b17-47d2-baaa-26859c457737 
mon_initial_members = host1,host2 
mon_host = host1,host2 
auth_cluster_required = cephx 
auth_service_required = cephx 
auth_client_required = cephx 
osd mkfs options xfs = -K 
public network = ip.ip.ip.0/24, ip.ip.ip.0/24 
cluster network = ip.ip.0.0/24 
osd pool default size = 2 # Write an object 2 times 
osd pool default min size = 1 # Allow writing 1 copy in a degraded state 
osd pool default pg num = 256 
osd pool default pgp num = 256 
osd crush chooseleaf type = 3 

Est-ce que quelqu'un sait comment résoudre ce problème?

Répondre

1

>> CEPH-deploy osd créer hôte: xvdb:/dev/host xvdb1: xvdf:/dev/xvdf1

Vous devez utiliser le nom partition nom de la partition DATA dev et Journal dev. Donc, ce serait comme

CEPH-deploy osd créer hôte:/dev/xvdb1:/dev/xvdb2 host:/dev/xvdf1:/dev/xvdf2

En outre, comme vous créez ces partitions vous manuellement besoin de changer la propriété de l'appareil à ceph: ceph pour ceph-déployer au travail. Exemple: chown CEPH: CEPH/dev/xvdb * Exemple: chown CEPH: CEPH/dev/xvdf *

REMARQUE: Si vous ne spécifiez le disque de journal par exemple [/ dev/xvdb2 OU/dev/xvdf2] la Ceph-deploy utilisera un fichier à la place de la partition de disque pour stocker les journaux.

- Deepak