2017-07-12 5 views
0

Je vous atteins dans l'espoir de trouver des réponses à propos de la limitation de l'intégrateur de données Pentaho. Je suis actuellement en train de travailler sur une intégration de source de données de 1 à 1 et je voudrais la faire passer à 1-n. Cela nécessite la création d'emplois dynamiques et aimerait savoir si l'un de ces problèmes est survenu. Mon 1 à 1 fonctionne parfaitement, l'intégration forme différents types de sources de données (CSV, bases de données "Mysql, Oracle ...) à la même destination de date et doit le faire n à 1-nPENTAHO source de données d'intégration de données/carte de destionation

Des conseils?

Un grand merci à l'avance

+0

Qu'est-ce que 'n à n-1'? Si je comprends bien, vous devez exécuter une transformation/travail plusieurs fois avec des paramètres variables. Mais je ne suis pas sûr. Pouvez-vous donner un exemple? Supposons que votre '1 à 1' est une simple' CSV Input' à 'Table output'. – AlainD

+0

Je dois effectuer une extraction de données à partir de n sources de données (qui peuvent être CSV, DATABESE ...) à n destination de données (qui peut être CSV, DATABESE ...) –

Répondre

-1

AFAIK dans Pentaho DI, il est impossible de créer des transformations dynamiques pour toutes les sources de données aléatoires. IPD recherche les colonnes d'entrée soient disponibles dans le flux d'entrée avant de charger les données Par exemple, si vous utilisez une source de données (en MySQL) et que vous la chargez dans la sortie csv, l'étape de sortie csv attend la présence de colonnes d'entrée dans l'étape de la source de données (entrée Table). sont essayer de charger n des sources de données aléatoires dont vous avez besoin pour définir individuellement les colonnes/champs d'entrée.

Sinon il y a peu de choses que vous pouvez explorer:

1. Dump rapide dans le texte étape de sortie du fichier:

Il y a une option pour données rapides de vidage l'ensemble de données dans un fichier texte étape de sortie. Ici, vous n'avez pas besoin de définir une colonne de sortie. Les champs de saisie seront automatiquement sauvegardés sans formatage tel quel. Vous pouvez l'utiliser pour mapper toutes les sources d'entrée au format csv, puis les charger sur leurs cibles.

2. L'extension de Java et Kettle ensemble pour construire une solution:

IPD vous permet de créer des codes JAVA personnalisé au-dessus de bouilloire. Vous pouvez vérifier this blog pour plus d'informations. Vous pouvez utiliser cette idée pour créer un code personnalisé pour transmettre n champs de sources de données à la bouilloire en tant que paramètre et les exécuter. {Note: Je n'ai pas essayé cette étape, juste à y penser à haute voix ici}

Hope this helps :)

0

Il y a une étape d'injection de métadonnées juste pour cela.

Un cas d'utilisation similaire au vôtre est décrit par Diethard here. Parce qu'il semble que vous ayez beaucoup de formats de sources différentes, il peut être judicieux de lire le cas d'utilisation de Jens, l'auteur de l'étape, here, qui (sauf pour l'automatisation) est précisément votre cas .

+0

Beaucoup de mercis AlainD! C'est vraiment utile car c'est à peu près exactement ce que je cherchais. Je vais travailler dessus et je reviendrai vers vous. THX again –

+0

Si la réponse est favorable, merci de l'accepter. – AlainD