2017-10-20 16 views
0

je fait l'essai Ceph avec s3espace seau s3 Ceph ne libère des

mon test ENV est un 3node avec un datadisk de 10GB chacun afin 30GB son ensemble à répliquent 3 fois. J'ai donc "15290 MB" espace disponible.

J'ai obtenu le seau S3 de travail et a été le téléchargement de fichiers, et rempli le stockage, essayé d'enlever ces fichiers, mais les disques sont montrent toujours aussi plein

cluster 4ab8d087-1802-4c10-8c8c-23339cbeded8 
health HEALTH_ERR 
     3 full osd(s) 
     full flag(s) set 
monmap e1: 3 mons at {ceph-1=xxx.xxx.xxx.3:6789/0,ceph-2=xxx.xxx.xxx.4:6789/0,ceph-3=xxx.xxx.xxx.5:6789/0} 
     election epoch 30, quorum 0,1,2 ceph-1,ceph-2,ceph-3 
osdmap e119: 3 osds: 3 up, 3 in 
     flags full,sortbitwise,require_jewel_osds 
    pgmap v2224: 164 pgs, 13 pools, 4860 MB data, 1483 objects 
     14715 MB used, 575 MB/15290 MB avail 
      164 active+clean 

Je ne sais pas comment obtenir le l'espace disque de retour?

Quelqu'un peut-il un conseiller sur ce que je l'ai fait mal ou ai manqué

Répondre

0

Merci à Julien sur cette info

-vous à droite avec les étapes 1 et 2

lorsque vous exécutez

liste gc radosgw-admin --include-all

vous voyez un exemple comme

[ { "tag": "17925483-8ff6-4aaf-9db2-1eafeccd0454.94098.295 \ u0000", "temps": "2017-10-27 13: 51: 58.0.493358s", "obj" : [{ "piscine": "default.rgw.buckets.data", "oid": « 17925483-8ff6-4aaf-9db2-1eafeccd0454.24248.3__multipart_certs/boot2docker.iso.2 ~ UQ4MH7uZgQyEd3nDZ9hFJr8TkvldwTp.1" , "clé": "", "exemple": "" }, { "piscine": "default.rgw.buckets.data", "oid": « 17925483-8ff6-4aaf- 9db2-1eafeccd0454.24248.3__shadow_certs/boot2docker.iso.2 ~ UQ4MH7uZgQyEd3nDZ9hFJr8TkvldwTp.1_1" , "clé": "", "exemple": ""} , ....

si vous remarquez la heure

2017-10-27 13: 51: 58.0.493358s

lors de l'exécution

radosgw-admin processus gc

il ne clair/enlever les parties qui sont plus âgés alors le temps Feild

par exemple, je peux courir « radosgw-admin gc processus "encore et encore, mais les fichiers ne seront pas supprimés jusqu'à après" 2017-10-27 13: 51: 58.0.493358s "

mais vous sont également droit

ORAD purge default.rgw.buckets.data --yes-i-vraiment-vraiment-moyenne-il

fonctionne aussi bien

0

Je commence avec CEPH et a eu le même problème.

  1. essayez d'exécuter le garbage collector

liste ce qui sera supprimé

radosgw-admin gc list --include-all 

puis exécutez-le

radosgw-admin gc process 
  1. si elle n'a pas fonctionné (comme pour moi avec la plupart de mes données)

trouver le seau avec vos données:!

ceph df 

Habituellement vos données S3 passe dans la piscine par défaut default.rgw.buckets.data

purger de tous les objets/\ vous perdrez toutes vos données/\ Je ne sais pas pourquoi ceph ne purge pas ces données pour l'instant (en train d'apprendre ...).

+0

Merci la chose de purge travaillé malheureusement cant fais ça sur un env direct. Mais merci pour les commandes et la compréhension que je suis en train de faire quelques tests pour comprendre – nig007