2017-03-15 1 views
0

En faisant "hadoop namenode -format", le message ci-dessous apparaît.Requête sur la commande hadoop namenode -format

Re-format filesystem in Storage Directory /opt/data/temp/dfs/name ? (Y or N) 

Que faut-il donner ici? "Y" ou "N".

Si donné Y, perdra-t-il des données de HDFS?

Répondre

1

Cette question ne s'affichera que lorsque le dfs.namenode.name.dir existe déjà, c'est-à-dire que le répertoire est déjà formaté ou qu'un répertoire existant est mappé sur dfs.namenode.name.dir. Si vous souhaitez le reformater, donnez Y sinon N.

En donnant Y, le répertoire sera formaté, supprimant toutes les métadonnées existantes (journaux fsimage et edits). Ce reformatage supprime uniquement les métadonnées, les répertoires de données dfs.datanode.data.dir doivent être supprimés manuellement.

+0

Encore et encore, j'obtiens le problème de "Impossible d'obtenir la longueur de bloc". Il y a une source qui écrit des enregistrements vers HDFS et dans les logs, je vois encore et encore ce problème 'Ne peut pas obtenir la longueur du bloc' Aussi, quand j'ouvre un fichier de HDFS, il ne l'ouvre pas Quand je fais hdfs fsck /, il donne la sortie en tant que 'HEALTHY' pour/.Mais encore cette exception de longueur de bloc vient.Lorsque je redémarre hadem daemon, je suis capable d'ouvrir les fichiers.Mais l'auteur hdfs de cette source jette toujours le exception de bloc – earl

+0

Lorsque j'ai créé "hadoop namenode -format" et sélectionné "Y" à l'invite, les démons de datanode n'ont démarré dans aucun des esclaves, seul nodemanager s'exécutait, j'ai ensuite dû supprimer les répertoires de hadoop.tmp.dir. Le formatage de namenode et le redémarrage des démons cette fois ont commencé les datanodes mais j'ai perdu toutes mes données depuis que j'ai supprimé les répertoires de hadoop.tmp.dir Je n'arrive pas à comprendre: - Pourquoi cette exception de longueur de bloc arrive-t-elle encore et encore séquence d'étapes j pour formater le namenode et démarrer les démons – earl

+0

Quelle est la source? Je soupçonne que la source ne ferme pas les fichiers correctement. – franklinsijo