Je suis assez nouveau pour étinceler. J'ai produit un fichier ayant environ 420 Mo de données avec le travail SPARK. J'ai une application Java qui a seulement besoin d'interroger les données simultanément à partir de ce fichier en fonction de certaines conditions et de retourner les données au format json. Jusqu'à présent, j'ai trouvé deux API RESTful pour SPARK, mais ils sont seulement pour soumettre des travaux de SPARK à distance et à la gestion des contextes SPARK,Demander des données produites par le travail SPARK via API RESTful
1)Livy
2)Spark job-server
Le cas échéant, quelles sont les autres options pour faire la même chose (sauf base de données)?
Merci Garren. Y at-il une limite de taille ou de longueur pour la création de JSON dans cette approche qui peut être renvoyée à l'application –
Je ne sais pas s'il y a une limite de taille, mais il y a des contraintes inhérentes puisqu'elle doit faire une "collecte" de les résultats reviennent au conducteur. Si vous avez le temps d'attendre pour générer et renvoyer un résultat de million de lignes, cela peut très bien obliger;) – Garren
Je poste des données dans le corps de la requête dans 'postman' sous la forme' {"code": "textwrap.dedent (\" \ "\" val d = spark.sql (\ "CHOISIR COUNT (DISTINCT food_item) FROM food_item_tbl \") val e = d.collecter \% json e \ "\" \ ")}' .Il est ne fonctionne pas.Ai-je manquant quelque chose ici –