Je développe une application dans opencl dont l'objectif de base est de mettre en œuvre un algorithme de data mining sur la plateforme GPU. Je veux utiliser Hadoop Distributed File System et je veux exécuter l'application sur plusieurs nœuds. J'utilise le framework MapReduce et j'ai divisé mon algorithme de base en deux parties, à savoir 'Map' et 'Reduce'.Comment utiliser le framework hadoop MapReuce pour une application Opencl?
Je n'ai jamais travaillé dans Hadoop avant, donc j'ai quelques questions:
- Dois-je écrire ma demande seulement java utiliser framework Hadoop et Mapeduce?
- J'ai écrit les fonctions du noyau pour map et reduce dans opencl. Est-il possible d'utiliser HDFS comme système de fichiers pour une application GPU-Computing non Java? (Note: Je ne veux pas utiliser JavaCL ou Aparapi)