Je suis novice à la mise en hadoop sur EC2. J'essaye de mettre en place l'installation de hadoop de noeud simple. J'ai réussi à installer et exécuter Hadoop 1.1.2 sur l'une des instances Amazon EC2. Tous les noeuds, les noeuds de nom, les datanodes, les jobstracker et les noeuds mapred sont sur la même machine.Hadoop, "Parcourir le système de fichiers" lien brisé sur ec2
Mon coeur cofiguration site est
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
Quand je commence à Hadoop, et aller à interface Web, l'interface utilisateur de NameNode ouvre sans aucun problème.
http://<namenode>:50070/dfshealth.jsp
Mais quand on clique dessus sur "Parcourir le système de fichiers", il redirige vers
http://localhost:50075
qui est incorrect. Il devrait être quelque chose
http://<namenode>:50075.
Mais dans ce cas, il échoue.
S'il vous plaît aidez-moi à comprendre le problème.
J'ai ajouté le EC2 dns publique prénom. Aussi suivi [blog] (http://codewut.de/content/bind-hadoop-specific-network-device). Maintenant, je suis confronté à deux problèmes. 1. Liens brisés sur l'interface Web de Namenode. Si j'ajoute des entrées/etc/hosts, certaines d'entre elles sont résolues. 2. De java api je ne peux pas télécharger le fichier sur hdfs. 50010 java.net.SocketTimeoutException: 63000 millis de délai d'attente en attendant que le canal soit prêt pour la connexion. – subhashlg26