Je construis une canalisation ML de microservice à base de nuages de printemps. J'ai un service d'intégration de données qui prend (actuellement) des données de SQL, ces données doivent être utilisées par le service de prédiction.Communication entre microservices pour des données volumineuses
Le consensus général est que les écritures doivent utiliser une communication basée sur un message asynchrone utilisant kafka/rabbitmq. Ce dont je ne suis pas sûr, c'est comment orchestrer ces services?
Dois-je utiliser une passerelle API qui appelle l'ingestion qui démarre le pipeline?
Flux de données Spring Cloud: http://cloud.spring.io/spring-cloud-dataflow/? –
Je suis vraiment nouveau à ce sujet. Si j'utilise le flux de données du nuage de printemps, serai-je en mesure d'utiliser les services individuellement? Utiliser un service indépendamment du pipeline de flux de données en utilisant, par exemple, des points de terminaison de repos? –