2012-12-12 2 views
0

J'ai une application qui se connecte à un système distant et en transfère des données à l'aide du protocole sftp. Je veux utiliser un travail mapreduce pour faire la même chose. J'aurais besoin d'un format d'entrée qui lit à partir d'un flux d'entrée. J'ai parcouru les docs pour HStreamInputFormat et StreamInputFormat mais mon hadoop-2.0 ne semble pas supporter ces classes. Comment dois-je procéder? Des liens vers des didacticiels ou des exemples de lecture à partir de flux d'entrée utilisant des formats d'entrée?StreamInputFormat pour le travail mapreduce

Répondre

0

Si ces SteamInputFormats ne répondent pas à vos besoins, il est préférable d'écrire votre propre InputFormat avec vos besoins personnalisés. Veuillez lire le tutoriel this pour apprendre comment écrire vos propres InputFormat et RecordReader.

+0

Merci :) Je ne peux pas écrire un InputFormat ici parce que je ne sais pas comment gérer les flux d'entrée car le chemin vers mapper et hadoop n'ont aucune classe de base en place. – RadAl

Questions connexes