Il est difficile de lire l'erreur d'écran collé dans l'écran, mais il ressemble à InvalidProtocolBufferException.
Dans ce cas, il semble que "hdfs: //172.16.53.31:" ne soit pas bien formé.
Essayez "hdfs: //172.16.53.31" sans port. Ou essayez d'ajouter le port correct pour votre installation Hadoop.
Si vous donnez un port totalement faux, la chose que vous pointez ne parlera pas protobuf.
Cette erreur peut également se produire lorsque la version du client Hadoop est trop différente de la version du serveur Hadoop. (Notez que si vous démarrez H2O avec la méthode 'hadoop jar', les bibliothèques Hadoop correctes sont placées sur le classpath client par 'hadoop jar'.)
Si vous démarrez H2O en utilisant 'hadoop jar', vous récupérez généralement le nom de noeud de l'environnement, et peut simplement donner "hdfs: ///path/to/file.csv" sans noeud de nom spécifié.