2010-01-24 14 views
0

J'ai un script cochon qui active un autre programme python. J'ai été capable de le faire dans mon propre environnement hadoop, mais j'échoue toujours lorsque je lance mon script dans Amazon map.Mot clé STREAM dans un script cochon qui s'exécute dans Amazon Mapreduce

Le journal disent:

org.apache.pig.backend.executionengine.ExecException: ERREUR 2090: Erreur lors du traitement reçu Réduc le plan: '' a échoué avec le statut de sortie: 127 à org.apache.pig .backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.runPipeline (PigMapReduce.java:347) à org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.processOnePackageOutput (PigMapReduce.java:288) à org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.reduce (PigMapReduce.java:260) à org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigMapReduce $ Reduce.reduce (PigMapRed uce.java:142) à org.apache.hadoop.mapred.ReduceTask.run (ReduceTask.java:321) à org.apache.hadoop.mapred.TaskTracker $ Child.main (TaskTracker.java:2216)

Une idée?

Répondre

0

Problème résolu! Tout ce dont j'ai besoin est d'utiliser l'option cache ('s3: //') lors de la définition de la commande de diffusion

+0

Pourriez-vous montrer votre implémentation de travail? Je suis dans le même bateau - je peux obtenir un UDF en python pour fonctionner en mode local mais il échoue quand je le déploie sur mon cluster. –

0

Avez-vous vérifié que le script est envoyé au travail Elastic MapReduce?

+0

Non Comment puis-je vérifier? – sagie

+0

Non sûr, mais vous pouvez essayer de spécifier le chemin d'accès au script en tant qu'URL complète, y compris s3: // et tout cela, comme vous le feriez avec un JAR. Voir http://docs.amazonwebservices.com/ElasticMapReduce/latest/DeveloperGuide/index.html?introduction.html#UsingJarsWithPig – Theo

Questions connexes