2010-03-01 3 views

Répondre

23

Vous devez regarder dans votre fichier de configuration hdfs-default.xml pour le réglage de dfs.data.dir. Le paramètre par défaut est: $ {hadoop.tmp.dir}/dfs/data et notez que le $ {hadoop.tmp.dir} est réellement dans core-default.xml décrit here. Les options de configuration sont La description de ce paramètre est:

détermine où le système de fichiers sur locale un nœud de données DFS devrait stocker ses blocs. S'il s'agit d'une liste de répertoires délimitée par des virgules, , les données seront stockées dans tous les répertoires nommés, généralement sur différents périphériques . Les répertoires qui n'existent pas sont ignorés.

+1

Votre lien est rompu – mortonjt

+0

ce lien est cassé :( –

+0

quelle est la valeur par défaut de 'hadoop.tmp.dir'? – chenzhongpu

14

Comme "réponse plus récente" et de préciser les numéros de version de Hadoop:

Si vous utilisez Hadoop 1.2.1 (ou similaire), la réponse de Nerd @Binary est toujours vrai.

Mais si vous utilisez, vous devriez lire la documentation de configuration here et l'option que vous souhaitez définir est Hadoop 2.1.0-beta (ou quelque chose de similaire): dfs.datanode.data.dir

-5

Exécuter ce dans l'invite cmd, et vous obtiendrez l'emplacement DHFS:

bin/hadoop fs -ls 
+0

Comme présenté, cette commande donne juste une erreur. Et vous avez corrigé la commande, cela ne répondrait pas du tout à la question initiale, -ls ne va pas aider à cet égard. – derekv

Questions connexes