2017-01-29 1 views
0

J'utilise Hadoop 2.5.1 et HBase-1.0.1nœud de données à partir du nœud de travail jette cette erreur

quand je commence le DataNode sur un nœud de travailleur par

hadoop-daemon.sh start datanode 

il jette SLF4J:class path contains multiple  SLF4J bindings

et le noeud de données ne reçoit pas commencé

+0

Les deux Hadoop et Hbase ont des pots de SLF4J dans leur 'lib', qui fait partie du chemin de classe. Pouvez-vous supprimer le fichier slf4j jar de $ HBASE_HOME/lib et essayer? – franklinsijo

Répondre

0

je rencontre la même erreur lors de l'installation de la ruche. la solution simple pour cela est de supprimer le fichier jarre slf4j du dossier dans la ruche en raison de laquelle cette erreur multiple jar apparaît.

Maintenant, il ya plusieurs fichiers jar slf4j ainsi dans votre journal d'erreurs vérifier quel slf4j jar provoque une erreur très probablement ce sera slf4j-log4j12 ou quelque chose comme ça. cela dépend en fait de votre ruche et de la version Hadoop.

Cette erreur se produit car le même fichier jar est présent dans le dossier Hadoop lib qui contient tout le fichier jar lié à hadoop et également dans le dossier lib hive. Maintenant, quand nous installons ruche après hadoop le pot qui est commun est à nouveau ajouté car il est également présent dans le dossier hadoop lib donc il doit être retiré du dossier lib hive car hive détectera automatiquement ce jar du dossier Hadoop lib en raison de sa dépendance sur Hadoop. Ainsi, il est sûr de le retirer du dossier lib hive.

Hope this résoudre votre requête