2017-09-06 5 views
1

Je veux mettre le fichier de données csv à la table HBase en utilisant CsvBulkLoadTool à partir de Java. HB12 et Phoenix fonctionnent sur Ubuntu VM.Erreur Phoenix CsvBulkLoadTool lors de l'exécution à partir de Windows

Quand je lance CsvBulkLoadTool.run() à partir de Windows je reçois exception suivante:

java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename. 

D'ailleurs, quand je java -jar mon exemple d'application en cours d'exécution sur Ubuntu VM, je reçois exception nex:

java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar 

/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar est l'emplacement réel du fichier jar sur Ubuntu vm. J'ai utilisé CsvBulkLoadTool échantillons de here.

Aussi, lorsque j'utilise JDBC simple pour connecter et peupler table via Phoenix - tout fonctionne. CSVBulkloadTool doit être exécuté comme hadoop jar

+1

Je pensais que le CSV a dû sur l'instance au sein hdfs à HBase pour courir? est-ce le cas? –

Répondre

0

Je courrais: hadoop jar my-application-with-CSVBulkloadTool.jar