Je suis nouveau dans google dataflow. J'ai 2 pipeline de flux de données pour exécuter 2 travail de différence. L'un est le processus ETL et le chargement vers Bigquery et un autre est lu à partir de Bigquery pour être agrégé pour le rapport. Je veux lancer ETL firt de pipeline et après qu'il soit terminé le pipeline de rapports se déroulera pour s'assurer que les données dans bigquery est la dernière mise à jour.Définir la priorité pour pipeline google dataflow
J'avais essayé de courir dans une ligne de pipe mais cela ne peut pas aider. Maintenant, je dois d'abord exécuter le manuel pour ETL, puis je lance le pipeline de rapports.
Tout le monde peut me donner quelques conseils pour exécuter 2 travaux dans un pipeline. Merci.
J'ai trouvé la solution est la suivante: je construis processus ETL dans un pipeline et processus regroupés dans un autre pipeline, après que j'exporter chaque pipeline Jar fichier exécutable et j'utilise script shell pour exécuter tous les jours calendrier de traitement par lots avec Aggregate dépend du statut du processus ETL. – lknguyen