Je crée une application d'analyse en continu dans laquelle chaque analytique/fonctionnalité sera implémentée en tant que Microservice afin que cette analyse puisse être utilisée ultérieurement dans les différents projets. J'utilise Lagom pour créer Microservice. Je suis nouveau à lagom c'est pourquoi je suis tombé sur quelques doutes.Meilleure approche pour intégrer des données de streaming dans Lagom Microservice
Je ne comprends pas quelle sera la meilleure approche pour publier mon flux de données (provenant de plusieurs capteurs) sur microservice, puis ce microservice publie des données sur le sujet kafka.
Est-ce que Lagom fonction Stream message dans Description du service ServiceCall [Source [String, NOTUSED], Source [String, NOTUSED]] est-il la bonne approche à Post flux de données (Big Data) de centaines de capteurs wifi? A-t-il une location pour gérer cette énorme quantité de flux de données en temps quasi-réel (= 5 Sec)? Deuxièmement, tout en publiant des données à des sujets kafka pourquoi je dois implémenter l'entité persistante (recommandé par Lagom)? Parce que Kafka lui-même garantit à-moins une fois la transmission du message
Mon application n'est pas application CRUD, il prend en charge uniquement pour traiter des données en continu.
Merci pour la discussion détaillée. En effet dans mon cas, je n'ai pas à considérer les effets secondaires, Et si j'utilise External Kafka Producer (non intégré à Lagom) directement en tant que client et que je consomme ce message publié dans le microservice Lagom pour un traitement ultérieur? –