2014-07-07 1 views
0

En utilisant R-hadoop qui est hébergé à 172.16.53.31:8787, j'essaye d'importer le fichier de HDFS à H2O qui est hébergé à 172.16.53.31:54331 (à l'origine 54321).hadoop h2o r, h2o.importHDFS, erreur

Cette erreur s'est produite. Une idée?

error

Ou des conseils?

Merci et merci.

Sincèrement,

Newb

Répondre

1

J'ai eu le même problème. Essayez d'ajouter le numéro de port 9000 à votre chemin HDFS.

Quelque chose comme ceci:

hdfs://<ip>:9000/<dataPath>/ 
2

Il est difficile de lire l'erreur d'écran collé dans l'écran, mais il ressemble à InvalidProtocolBufferException.

Dans ce cas, il semble que "hdfs: //172.16.53.31:" ne soit pas bien formé.

Essayez "hdfs: //172.16.53.31" sans port. Ou essayez d'ajouter le port correct pour votre installation Hadoop.

Si vous donnez un port totalement faux, la chose que vous pointez ne parlera pas protobuf.

Cette erreur peut également se produire lorsque la version du client Hadoop est trop différente de la version du serveur Hadoop. (Notez que si vous démarrez H2O avec la méthode 'hadoop jar', les bibliothèques Hadoop correctes sont placées sur le classpath client par 'hadoop jar'.)

Si vous démarrez H2O en utilisant 'hadoop jar', vous récupérez généralement le nom de noeud de l'environnement, et peut simplement donner "hdfs: ///path/to/file.csv" sans noeud de nom spécifié.