J'ai un script cochon qui active un autre programme python. J'ai été capable de le faire dans mon propre environnement hadoop, mais j'échoue toujours lorsque je lance mon script dans Amazon map.Mot clé STREAM dans un script cochon qui s'exécute dans Amazon Mapreduce
Le journal disent:
org.apache.pig.backend.executionengine.ExecException: ERREUR 2090: Erreur lors du traitement reçu Réduc le plan: '' a échoué avec le statut de sortie: 127 à org.apache.pig .backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.runPipeline (PigMapReduce.java:347) à org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.processOnePackageOutput (PigMapReduce.java:288) à org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.reduce (PigMapReduce.java:260) à org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.reduce (PigMapRed uce.java:142) à org.apache.hadoop.mapred.ReduceTask.run (ReduceTask.java:321) à org.apache.hadoop.mapred.TaskTracker $ Child.main (TaskTracker.java:2216)
Une idée?
Pourriez-vous montrer votre implémentation de travail? Je suis dans le même bateau - je peux obtenir un UDF en python pour fonctionner en mode local mais il échoue quand je le déploie sur mon cluster. –