2015-07-27 7 views
0

J'utilise un cluster Ceph à 3 nœuds basé sur Ubuntu Server 14.04. En fait mon problème est que 192 groupes de placement (pgs) sont dans le statut actif + remappé. Tous les noeuds sont en ligne et tous les osds sont en ligne.ceph cleanup pgs actif + remappé

Comment puis-je nettoyer les pages?

[email protected]:~# ceph status 
    cluster 776020a6-5c44-49c8-93e4-4a83703d4315 
    health HEALTH_WARN 192 pgs stuck unclean 
    monmap e1: 3 mons at  {node1=192.168.178.101:6789/0,node2=192.168.178.102:6789/0,node3=192.168.178.103:6789/0}, election epoch 14, quorum 0,1,2 node1,node2,node3 
osdmap e235: 12 osds: 12 up, 12 in 
    pgmap v341719: 392 pgs, 5 pools, 225 GB data, 70891 objects 
     597 GB used, 6604 GB/7201 GB avail 
      200 active+clean 
      192 active+remapped 

[email protected]:~# ceph osd tree 
# id weight type name  up/down reweight 
-9  7.02 root erasure 
-3  2.34   host node2-erasure 
7  0.9      osd.7 up  1 
6  0.9      osd.6 up  1 
-5  2.34   host node3-erasure 
11  0.9      osd.11 up  1 
10  0.9      osd.10 up  1 
-7  2.34   host node1-erasure 
2  0.9      osd.2 up  1 
3  0.9      osd.3 up  1 
-8  7.02 root cache 
-2  2.34   host node2-cache 
5  0.27     osd.5 up  1 
4  0.27     osd.4 up  1 
-4  2.34   host node3-cache 
9  0.27     osd.9 up  1 
8  0.27     osd.8 up  1 
-6  2.34   host node1-cache 
0  0.27     osd.0 up  1 
1  0.27     osd.1 up  1 
-1  0  root default 

Est-ce que quelqu'un a une idée?

Meilleures salutations schlussbilanz

+0

pouvez-vous télécharger quelque part la sortie du rapport de * CEPH *? Il en dira plus sur les détails. –

+0

http://chopapp.com/#fcmrvn3w – schlussbilanz

Répondre

0

ma solution est repondérons tous osd. {Num} pour tha même