2013-05-02 1 views
0

J'ai écrit mes propres codes de carte et de réduire la fonction dans le noyau OpenCL. Scénario général de MapReduce qui est fondamentalement incorporé dans Hadoop qui est lui-même écrit en Java.Inclure la carte et réduire en écrit en C/OpenCL dans hadoop

Comment utiliser mes propres codes de réduction de carte écrits en C/OpenCL dans hadoop sur un cluster multi-nœuds?

J'ai déjà posé ce type de question auparavant mais je n'ai reçu aucune réponse. Tout lien pour le tutoriel serait utile. Je suis prêt à lire par moi-même, je ne trouve tout simplement pas de ressources relatives à cela. Toute sorte d'aide serait appréciée. Merci pour le temps et l'intérêt.

+0

Une option est d'utiliser JNDI ou jeter un oeil à http://stackoverflow.com/questions/15495698/how-to-use-hadoop-mapreuce-framework-for-an -opencl-application/15509904 # 15509904 – alexeipab

Répondre

1

HDFS est un système de fichiers; vous pouvez utiliser le système de fichiers HDFS avec n'importe quelle langue.

Les données HDFS sont réparties sur plusieurs machines, il est hautement disponible pour traiter les données dans le calcul GPU.

Pour plus d'informations référence Hadoop Streaming

Questions connexes