2016-05-29 7 views
0

Je viens de mettre hors service l'un de mes nœuds dans un cluster Cassandra à 3 nœuds (tous exécutant Cassandra 3.3). L'un des nœuds restants est en cours d'impression:Mise hors service d'un nœud Cassandra

DEBUG [GossipTasks:1] 2016-05-29 15:30:16,770 Gossiper.java:336 - Convicting /10.80.64.33 with status LEFT - alive false 
DEBUG [GossipTasks:1] 2016-05-29 15:30:17,770 Gossiper.java:336 - Convicting /10.80.64.33 with status LEFT - alive false 
DEBUG [GossipTasks:1] 2016-05-29 15:30:18,771 Gossiper.java:336 - Convicting /10.80.64.33 with status LEFT - alive false 
DEBUG [GossipTasks:1] 2016-05-29 15:30:19,771 Gossiper.java:336 - Convicting /10.80.64.33 with status LEFT - alive false 
DEBUG [GossipTasks:1] 2016-05-29 15:30:20,771 Gossiper.java:336 - Convicting /10.80.64.33 with status LEFT - alive false 

dans les journaux pendant une demi-journée environ, une fois par seconde. Une idée pourquoi? Qu'est-ce que cela signifie?

Merci

Edit:

j'ai remarqué les deux noeuds impriment ce message dans les journaux pour les dernières 48 heures!

+0

Voir http://stackoverflow.com/a/15687515/1849837 si ça aide. –

+0

Je ne suis pas sûr comment cela s'applique. J'utilise des vnodes pour ne pas avoir à réaffecter les jetons automatiquement. Le message est pour Cassandra 1.0 qui n'avait pas de vnodes. aussi j'utilise SimpleStrategy pour ma réplication (j'ai seulement un DC) donc je n'ai pas mis à jour le fichier cassandra-topology.properties. pas sûr que cela puisse être une raison, mais jusqu'à présent, même sans la mise à jour de cassandra-topology.properties, tout fonctionne bien. –

+0

Je suis également confronté au même problème. Comment avez-vous surmonté cette situation? –

Répondre