J'ai lu d'autres articles sur le problème de configuration HDFS avec Hadoop. Cependant, aucun d'eux n'a été utile. Donc, je poste ma question. J'ai suivi le tutoriel this pour hadoop v1.2.1. Quand je suis exécutant la commande Hadoop fs J'ai eu cette erreur:Hadoop INFO ipc.Client: Nouvelle tentative de connexion au serveur localhost/127.0.0.1: 9000
16/08/29 15:20:35 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
Mon fichier core-site.xml est:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/mnt/miczfs/hadoop/tmp/${user.name}</value>
</property>
</configuration>
En outre, mon fichier HDFS-site.xml est aussi suivre:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/mnt/miczfs/hadoop/hdfs/${user.name}/namenode</value>
</property>
<property>
<name>dfs.secondary.http.address</name>
<value>localhost:0</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/mnt/miczfs/hadoop/hdfs/${user.name}/datanode</value>
</property>
<property>
<name>dfs.datanode.address</name>
<value>localhost:0</value>
</property>
<property>
<name>dfs.datanode.http.address</name>
<value>localhost:0</value>
</property>
<property>
<name>dfs.datanode.ipc.address</name>
<value>localhost:0</value>
</property>
</configuration>
et/etc/hosts est ceci:
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
172.31.1.1 micrasrelmond.local micrasrelmond #Generated-by-micctrl
172.31.1.1 mic0.local mic0 #Generated-by-micctrl
Si c'est possible, aidez-moi s'il vous plaît. Merci