2012-10-26 2 views
5

Je suivais un didacticiel pour installer hadoop: http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/ Maintenant, je suis bloqué à l'étape "Copier les données d'exemples locaux vers HDFS".erreur de connexion handoop avec put/copyFromLocal

L'erreur de connexion que je reçois:

<12/10/26 17:29:16 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 0 time(s). 
12/10/26 17:29:17 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 1 time(s). 
12/10/26 17:29:18 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 2 time(s). 
12/10/26 17:29:19 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 3 time(s). 
12/10/26 17:29:20 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 4 time(s). 
12/10/26 17:29:21 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 5 time(s). 
12/10/26 17:29:22 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 6 time(s). 
12/10/26 17:29:23 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 7 time(s). 
12/10/26 17:29:24 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 8 time(s). 
12/10/26 17:29:25 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 9 time(s). 
Bad connection to FS. command aborted. exception: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused 

qui est à peu près la même chose à cette question déjà: Errors while running hadoop

point est maintenant, j'ai désactivé le ivp6, comme il est décrit et au-dessus du tutoriel, mais cela n'aide pas. Y a-t-il quelque chose qui me manque? Merci pour toute aide!

EDIT:

Je répète le tutoriel von une deuxième machine avec un fraîchement installé unbuntu et comparée étape par étape. Il s'est avéré qu'il y avait un bug dans la configuration de bashrc du hduser. Ensuite, cela a bien fonctionné ...

Répondre

4

Je reçois le message d'erreur exact si j'essaie de faire Hadoop fs <anything> lorsque le DataNode/NameNode ne fonctionne pas, donc je suppose que la même chose se produit pour vous.

Saisissez jps dans votre terminal. Si tout est en cours d'exécution, il devrait ressembler à:

16022 DataNode 
16524 Jps 
15434 TaskTracker 
15223 JobTracker 
15810 NameNode 
16229 SecondaryNameNode 

Je parie que vous êtes DataNode ou NameNode ne fonctionne pas. Si quelque chose manque à l'impression de jps, redémarrez-le.

+0

Les nœuds étaient en cours d'exécution, de sorte que WASN 't le problème. Mais j'ai trouvé le problème maintenant, merci pour l'aide quand même! – kumoyadori

+0

quel était le problème? – parisa

0

après la configuration complète donner cette commande

Hadoop NameNode -formate

et le début de tous les services par cette commande

start-all.sh

cela résoudra votre problème

0
  1. Accédez à votre fichier etc/hadoop/core-site.xml. vérifiez la valeur de fs.default.name Cela devrait être comme indiqué ci-dessous. { fs.default.name hdfs: // localhost: 54310 }
  2. après la configuration complète donner cette commande

Hadoop NameNode -format

  1. le début tous les services par cette commande

start-all.sh

cela résoudra votre problème.

Votre NameNode peut être en mode sans échec, exécutez bin/hdfs dfsadmin -safemode quitter ou bin/dsfadmin Hadoop -safemode laisser puis suivez les étapes - 2 et -3 étape