Ma question est similaire à une question déjà posée qui se trouve dans scala et pour la lecture de fichiers.Ecriture de fichiers dans HDFS à partir de fonctions de transformation d'étincelles dans Java
Reading files dynamically from HDFS from within spark transformation functions
Je suis au courant des accumulateurs qui les utilisent pour retourner des résultats au conducteur et à l'écriture HDFS dans le pilote. Dans notre cas d'utilisation, la sortie de chaque exécuteur est grande, donc je cherche un moyen d'écrire dans HDFS dans les transformations en Java.
Merci!
Merci Zhang pour votre réponse, je vous remercie de poster une méthode pour le faire. Mais dans mon cas, les données intermédiaires ne sont pas RDD et nous ne diffusons pas de données. –
J'ai finalement choisi une idée de votre réponse et j'ai pu trouver une solution. Publié comme une autre réponse ... merci! –