J'essaie de comprendre comment extraire toutes les données d'une requête initialement, puis modifie de manière incrémentielle uniquement en utilisant le connecteur kafka. La raison en est que je veux charger toutes les données dans la recherche élastique, puis garder es en synchronisation avec mes flux kafka. Actuellement, je fais cela en utilisant d'abord le connecteur avec mode = bulk, puis je le change en timestamp. Cela fonctionne bien. Cependant, si nous voulons recharger toutes les données vers les Streams et les ES, cela signifie que nous devons écrire des scripts qui nettoient ou suppriment les flux kafka et les données des index, modifient les ini de connexion en mode set, redémarrez tout, donnez-lui le temps de charger toutes ces données, puis modifiez à nouveau les scripts en mode horodatage, puis redémarrez le tout une fois de plus (la raison en est que les mises à jour groupées arrivent à corriger les données historiques via un processus etl encore avoir le contrôle, et ce processus ne met pas à jour les horodateurs)Kafka JDBC connecteur charger toutes les données, puis incrémentiel
Est-ce que quelqu'un fait quelque chose de similaire et a trouvé une solution plus élégante?
pas exactement ce que je demandais. actuellement im en utilisant des colonnes d'horodatage. Je dois changer le mode en vrac pour tout recharger, puis revenir à l'horodatage pour que kafka charge ensuite de manière incrémentielle ou de nouvelles données (il ajoute la requête avec un horodatage de et à partir de là).J'espérais éviter d'avoir à faire ce basculement de mode chaque fois que je veux partir d'une ardoise «propre». – mike01010