J'utilise Pentaho Data Integration 7.1 pour copier des fichiers locaux sur un cluster Hadoop 2.8.0. J'ai créé une connexion Hadoop Cluster sur Pentaho et j'utilise une étape Hadoop Copy Files. Je peux télécharger avec succès les fichiers quand j'exécute mon travail à partir de l'interface graphique (spoon.sh), je peux voir la ligne suivante dans le journal:Différence de comportement dans un travail lors de l'exécution depuis la cuisine
Hadoop Copy Files - Processing row source File/folder source : [file:///home/etl/Desktop/users_full_20170620.csv] ... destination file/folder : [hdfs://hadoop:***@spark-master.cu:9000/value_iq]... wildcard : [null]
Mais lorsque je tente d'exécuter la même transformation à l'aide de la kitchen.sh échoue, je suis l'erreur suivante:
Hadoop Copy Files - ERROR (version 7.1.0.0-12, build 1 from 2017-05-16 17.18.02 by buildguy) : Folder file:///value_iq/bin/kettle/data-integration_7.1/hdfs:/hadoop:[email protected]:9000/value_iq does not exist!
d'une certaine façon, il y a l'ajout du chemin où le kitchen.sh est situé en face de l'url HDFS, en supposant que les destinations locales est enviroment.
C'est une capture d'écran de mon Hadoop Copier étape Fichiers
un rapport JIRA de ce bug a été créé: http://jira.pentaho.com/browse/PDI-16443
Merci, j'ai créé le problème de jira http://jira.pentaho.com/browse/PDI-16443 – Jose
Aussi semble que d'abord vous essayez de copier avec cluster cluster hadoop mal configuré. Donc s'il vous plaît vérifiez si vous avez un dossier avec le nom "hdfs:" sous le fichier: ///value_iq/bin/kettle/data-integration_7.1/ S'il existe, supprimez-le. – Sedos