je fait l'essai Ceph avec s3espace seau s3 Ceph ne libère des
mon test ENV est un 3node avec un datadisk de 10GB chacun afin 30GB son ensemble à répliquent 3 fois. J'ai donc "15290 MB" espace disponible.
J'ai obtenu le seau S3 de travail et a été le téléchargement de fichiers, et rempli le stockage, essayé d'enlever ces fichiers, mais les disques sont montrent toujours aussi plein
cluster 4ab8d087-1802-4c10-8c8c-23339cbeded8
health HEALTH_ERR
3 full osd(s)
full flag(s) set
monmap e1: 3 mons at {ceph-1=xxx.xxx.xxx.3:6789/0,ceph-2=xxx.xxx.xxx.4:6789/0,ceph-3=xxx.xxx.xxx.5:6789/0}
election epoch 30, quorum 0,1,2 ceph-1,ceph-2,ceph-3
osdmap e119: 3 osds: 3 up, 3 in
flags full,sortbitwise,require_jewel_osds
pgmap v2224: 164 pgs, 13 pools, 4860 MB data, 1483 objects
14715 MB used, 575 MB/15290 MB avail
164 active+clean
Je ne sais pas comment obtenir le l'espace disque de retour?
Quelqu'un peut-il un conseiller sur ce que je l'ai fait mal ou ai manqué
Merci la chose de purge travaillé malheureusement cant fais ça sur un env direct. Mais merci pour les commandes et la compréhension que je suis en train de faire quelques tests pour comprendre – nig007