J'ai cherché une solution à cette question.Est-il possible de lire et d'écrire du parquet en utilisant Java sans dépendre de Hadoop et HDFS?
Il me semble qu'il n'y a aucun moyen d'intégrer la lecture et l'écriture du format Parquet dans un programme Java sans tirer parti des dépendances de HDFS et Hadoop. Est-ce correct? Je veux lire et écrire sur un ordinateur client, en dehors d'un cluster Hadoop.
J'ai commencé à m'enthousiasmer à propos d'Apache Drill, mais il semble qu'il doit fonctionner comme un processus séparé. Ce dont j'ai besoin, c'est d'une capacité en cours de processus pour lire et écrire un fichier en utilisant le format Parquet.
OK. Cela fonctionne (sur Windows) si j'ai winutils.exe. J'aurais dû formuler la question différemment. Je ne pense pas que je vais avoir winutils.exe disponible où je veux écrire (et lire). Cependant, comme demandé, cela répond (bien que je devrais comprendre la lecture). Je vous remercie. – Jesse
Je devrais ajouter que j'ai trouvé des API obsolètes dans votre réponse. Je pense qu'il est prévu d'utiliser les Builders pour la création des objets AvroWriteSupport et ParquetWriter. – Jesse
Oui, les constructeurs sont obsolètes, pas la classe. Comme vous l'avez dit, nous devrions utiliser les constructeurs. – Krishas