Je veux mettre le fichier de données csv à la table HBase en utilisant CsvBulkLoadTool
à partir de Java. HB12 et Phoenix fonctionnent sur Ubuntu VM.Erreur Phoenix CsvBulkLoadTool lors de l'exécution à partir de Windows
Quand je lance CsvBulkLoadTool.run()
à partir de Windows je reçois exception suivante:
java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename.
D'ailleurs, quand je java -jar
mon exemple d'application en cours d'exécution sur Ubuntu VM, je reçois exception nex:
java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar
où /usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar
est l'emplacement réel du fichier jar sur Ubuntu vm. J'ai utilisé CsvBulkLoadTool
échantillons de here.
Aussi, lorsque j'utilise JDBC simple pour connecter et peupler table via Phoenix - tout fonctionne. CSVBulkloadTool doit être exécuté comme hadoop jar
Je pensais que le CSV a dû sur l'instance au sein hdfs à HBase pour courir? est-ce le cas? –