0
import multiprocessing
data = range(10)
def map_func(i):
return [i]
def reduce_func(a,b):
return a+b
p = multiprocessing.Pool(processes=4)
p.map(map_func, data)
Comment puis-je utiliser reduce_func()
comme réduire la fonction de la map_func()
paralelised.Réduire avec multitraitement
Voici un exemple pySpark
de ce que je veux faire:
rdd = sc.parallelize(data)
result = rdd.map(map_func)
final_result = result.reduce(reduce_func)
'functools.reduce (reduce_func, p.map (map_func, données))' produit une liste de numéros 0 à 9, le caractère aléatoire dépend de l'ordre le multi-traitement consiste à mapper les données. – chapelo
Bien, merci. –