Bonjour, je suis nouveau dans Hadoop et c'est FileSystem. J'ai vu deux exemples différents de WordCount en utilisant JobConf
et Configuration
. Quelle est la différence en eux.JobConf v/s Configuration pour Hadoop 1.0.4
J'ai étudié que JobConf
faisait partie de l'ancien paquet org.apache.hadoop.mapred
(obsolète dans la version 0.2.x) mais la configuration fait partie du nouveau paquet org.apache.hadoop.mapreduce
. Mais maintenant, dans v1.0.4, il n'est pas déprécié.
Actuellement, nous avons deux façons d'exécuter des tâches de réduction de carte dans Java, l'une consiste à utiliser (extension) des classes dans le package org.apache.hadoop.mapreduce
et l'autre en implémentant des classes dans le package org.apache.hadoop.mapred
.
Je veux savoir:
Quelle est la différence entre la structure du paquet
mapred
etmapreduce
et pourquoimapred
est un dépréciée?Quelle approche est la meilleure pour v1.0.4 à utiliser et pourquoi?
JobConf
ouConfiguration
?Quel est le meilleur pour v1.0.4?
mapred
oumapreduce
?
duplication possible de [Est-il préférable d'utiliser le paquetage mapred ou mapreduce pour créer un Job Hadoop?] (Http://stackoverflow.com/questions/7598422/is-it-better-to-use-the- mapred-ou-le-mapreduce-paquet-pour-créer-un-hadoop-job) –
J'ai lu cette réponse. Cette approche était pour v.20 et v.21/22. Mais ici, je demande à propos de v1.0.4. S'il vous plaît ne le connectez pas avec ça. Et ne prenez aucune décision avant de comprendre complètement. –
1.0 n'est rien d'autre que la version entre 0,20 et 0,22. Voyez-le comme une version polie 20.x. Vous devriez rechercher les réponses existantes avant d'ajouter une nouvelle question, sans parler de la recherche de la numérotation des versions. –