2017-10-11 11 views
0

J'ai travaillé avec hadoop 2.8.1, selon certaines références (beaucoup de livre et autre forum en ligne) qui me disent où je pourrais utiliser 'hadoop fs -ls /' pour trouver la racine du système de fichiers hdfs. mais pendant que je tape cette commande, le terminal affiche le répertoire local mais pas la racine hdfs.comment afficher le répertoire racine hdfs dans hadoop?

quoi de mal à cela, merci d'avance.

+0

Rien ne va pas, c'est la bonne commande (bien que 'hdfs dfs -ls /') soit un équivalent plus moderne. Es-tu sûr que ça ne te montre pas la bonne chose? – puhlen

+0

@puhlen Je suis assez sûr! c'est très pareil quand j'entre 'hdfs dfs -ls' et 'ls -ls' – suoyong

+0

alors peut-être vous avez quelque chose de mal avec votre installation de hadoop, l'amenant à se connecter à votre système de fichiers local au lieu de votre cluster. – puhlen

Répondre

1

Si vous pouvez exécuter la commande hadoop version et qu'elle renvoie des informations correctes, cela signifie que Hadoop a été installé correctement.

Je pense qu'il pourrait y avoir un problème avec la configuration HDFS. Essayez ceci:

  1. Recherchez le fichier core-site.xml dans votre système de fichiers local. Il devrait être situé dans le répertoire /etc/hadoop/conf.
  2. Ouvrir le fichier core-site.xml et recherchez cette propriété:

    <property> 
        <name>fs.defaultFS</name> 
        <value>hdfs://<name-of-your-host>:8020</value> 
        <final>true</final> 
    </property> 
    
  3. Je suppose que le paramètre name est erroné. Vous devez identifier l'adresse sur laquelle HDFS est en cours d'exécution et la mettre à jour dans core-site.xml.
+0

exactement! merci beaucoup.mais le problème est pourquoi je cours 'hadoop fs -ls /' sans config core-site.xml qui va me montrer le fichier répertoire local? – suoyong