Quelle est la meilleure façon de partager des données RDD spark entre deux jobs spark.Comment partager les données de Spark RDD entre deux applications
J'ai un cas où le travail 1: Spark Sliding fenêtre Streaming App, va consommer des données à intervalles réguliers et la création de RDD. Ceci nous ne voulons pas persister au stockage. Tâche 2: tâche de requête accédant au même RDD créé dans le travail 1 et générant des rapports.
J'ai vu peu de requêtes où ils proposaient SPARK Job Server, mais comme il s'agit d'un open source pas sûr si c'est une solution possible, mais des pointeurs seront d'une grande aide.
merci!
Bien que cela puisse théoriquement répondre à la question, [il serait préférable] (// meta.stackoverflow.com/q/8259) d'inclure les parties essentielles de la réponse ici, et de fournir le lien pour référence. – manetsus