Je cours un travail de hadoop avec 16 tâches de réduction. (hadoop-1.2.1)progression de hadoop réducteur 100% mais ne finit pas
Certains d'entre eux ont 100% de progrès, mais ils ne se terminent pas. ils ont juste bloqué à 100% et le nettoyage du travail: en attente. Et leur statut affiche uniquement 'réduire> réduire'.
Je suppose que ce problème se produit car le travail écrit trop de sorties multiples. (environ 50 ~ 100 sorties multiples) Mais c'est juste ma conjecture. Je ne sais pas exactement qu'écrire plusieurs sorties multiples provoque ce problème. Quelqu'un pourrait-il me dire ce qui cause ce problème en détail? J'ai beaucoup cherché pour cela, mais je n'ai pas trouvé de réponse claire.
Cordialement.
votre estimation est raisonnable. les E/S de disque sont très souvent le goulot d'étranglement d'un travail MapReduce. – vefthym
Si ma réponse est exacte, quelle est la différence entre l'écriture de plusieurs sorties multiples et de nombreuses valeurs dans les fichiers R-000XX de chaque réducteur? et il semble qu'il soit toujours bloqué à la fermeture de plusieurs fichiers de sortie n'écrivant pas de valeurs dans les fichiers. Merci pour votre commentaire. – DoDary