2016-08-29 2 views
0

J'ai lu d'autres articles sur le problème de configuration HDFS avec Hadoop. Cependant, aucun d'eux n'a été utile. Donc, je poste ma question. J'ai suivi le tutoriel this pour hadoop v1.2.1. Quand je suis exécutant la commande Hadoop fs J'ai eu cette erreur:Hadoop INFO ipc.Client: Nouvelle tentative de connexion au serveur localhost/127.0.0.1: 9000

16/08/29 15:20:35 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 

Mon fichier core-site.xml est:

<configuration> 
<property> 
    <name>fs.default.name</name> 
    <value>hdfs://localhost:9000</value> 
</property> 

<property> 
    <name>hadoop.tmp.dir</name> 
    <value>/mnt/miczfs/hadoop/tmp/${user.name}</value> 
</property> 
</configuration> 

En outre, mon fichier HDFS-site.xml est aussi suivre:

<configuration> 
<property> 
<name>dfs.replication</name> 
<value>1</value> 
    </property> 
<property> 
    <name>dfs.name.dir</name> 
    <value>/mnt/miczfs/hadoop/hdfs/${user.name}/namenode</value> 
</property> 
<property> 
    <name>dfs.secondary.http.address</name> 
    <value>localhost:0</value> 
</property> 
<property> 
    <name>dfs.data.dir</name> 
    <value>/mnt/miczfs/hadoop/hdfs/${user.name}/datanode</value> 
</property> 
<property> 
    <name>dfs.datanode.address</name> 
    <value>localhost:0</value> 
</property> 
<property> 
    <name>dfs.datanode.http.address</name> 
    <value>localhost:0</value> 
</property> 
<property> 
    <name>dfs.datanode.ipc.address</name> 
    <value>localhost:0</value> 
</property> 
</configuration> 

et/etc/hosts est ceci:

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 
::1   localhost localhost.localdomain localhost6 localhost6.localdomain6 
172.31.1.1  micrasrelmond.local micrasrelmond #Generated-by-micctrl 
172.31.1.1  mic0.local mic0 #Generated-by-micctrl 

Si c'est possible, aidez-moi s'il vous plaît. Merci

Répondre

1

Vérifiez d'abord si le namenode est en cours d'exécution ou non par la commande jps. s'il est en cours d'exécution, formater le noeud par la commande bin/hadoop namenode -format. Pour éviter le formatage du nom de noeud après chaque redémarrage, changez le répertoire par défaut de hdfs à un autre emplacement.