AFAIK dans Pentaho DI, il est impossible de créer des transformations dynamiques pour toutes les sources de données aléatoires. IPD recherche les colonnes d'entrée soient disponibles dans le flux d'entrée avant de charger les données Par exemple, si vous utilisez une source de données (en MySQL) et que vous la chargez dans la sortie csv, l'étape de sortie csv attend la présence de colonnes d'entrée dans l'étape de la source de données (entrée Table). sont essayer de charger n des sources de données aléatoires dont vous avez besoin pour définir individuellement les colonnes/champs d'entrée.
Sinon il y a peu de choses que vous pouvez explorer:
1. Dump rapide dans le texte étape de sortie du fichier:
Il y a une option pour données rapides de vidage l'ensemble de données dans un fichier texte étape de sortie. Ici, vous n'avez pas besoin de définir une colonne de sortie. Les champs de saisie seront automatiquement sauvegardés sans formatage tel quel. Vous pouvez l'utiliser pour mapper toutes les sources d'entrée au format csv, puis les charger sur leurs cibles.
2. L'extension de Java et Kettle ensemble pour construire une solution:
IPD vous permet de créer des codes JAVA personnalisé au-dessus de bouilloire. Vous pouvez vérifier this blog pour plus d'informations. Vous pouvez utiliser cette idée pour créer un code personnalisé pour transmettre n champs de sources de données à la bouilloire en tant que paramètre et les exécuter. {Note: Je n'ai pas essayé cette étape, juste à y penser à haute voix ici}
Hope this helps :)
Qu'est-ce que 'n à n-1'? Si je comprends bien, vous devez exécuter une transformation/travail plusieurs fois avec des paramètres variables. Mais je ne suis pas sûr. Pouvez-vous donner un exemple? Supposons que votre '1 à 1' est une simple' CSV Input' à 'Table output'. – AlainD
Je dois effectuer une extraction de données à partir de n sources de données (qui peuvent être CSV, DATABESE ...) à n destination de données (qui peut être CSV, DATABESE ...) –