2016-03-02 1 views
2

Je reçois cette erreur sur l'exécution d'un seul cluster hadoop noeud sur amazon d2.2Xlarge.Je ne peux pas non plus afficher ma sortie.Peut-on me fournir les étapes appropriées pour résoudre ce problème?Hadoop Carte-Réduire Exception de fichier de sortie

"Caused by: org.apache.hadoop.util.DiskChecker$DiskErrorException: Could not 
find any valid local directory for output/file.out" 

Ce sont mes étapes exécutées.

bin/hdfs dfsadmin -safemode leave        
bin/hadoop fs -mkdir /inputfiles  
bin/hadoop dfsadmin -safemode leave  
bin/hadoop fs -mkdir /output  
bin/hdfs dfsadmin -safemode leave  
bin/hadoop fs -put input1 /inputfiles  
bin/hdfs dfsadmin -safemode leave 
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar 
wordcount /inputfiles /output 

Répondre

0

Vous ne devez pas créer de répertoire de sortie pour le travail de réduction de carte.

Supprimer cette commande

bin/hadoop fs -mkdir /output 

Et changer la dernière commande comme

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar 
wordcount /inputfiles /output1 

Assurez-vous que vous disposez des autorisations pour créer output1 sous/

Dans le cas contraire, je préférerais ci-dessous répertoire strucuture .

/home/your_user_name/input pour les fichiers de répertoires d'entrée et

/home/your_user_name/output pour le répertoire de sortie.

+0

ok..Même après avoir supprimé la sortie mkdir cela fonctionne bien pour .. 100Mb, 300MB, mais pas pour 1 Go .. est-ce aussi un problème de disque ..? – user3449625