2016-10-04 2 views
0

J'ai fait des recherches sur pool.map sur SO et je n'arrive toujours pas à trouver quoi que ce soit qui indique mon problème.Python Pool.map() - fonctionne localement, sur le serveur échoue

J'ai if __name__ == '__main__' dans chaque fichier .py. J'ai freeze_support() dans chaque .py qui contient import multiprocessing, je suis toujours à une perte pour ce qui se passe. J'ai déplacé le freeze_support() dans mon code avec les mêmes résultats infructueux. Le script A appelle le script B, le script B appelle le script C (où se produit le multitraitement). Localement ce scénario fonctionne parfaitement, mais quand je le charge sur une machine Windows Server 2008, des choses étranges commencent à se produire.

Sur le serveur, je peux voir le premier itérable imprimé à l'interpréteur, mais il revient ensuite au script B et continue le traitement. Il y a 51 autres éléments dans la liste pour le script C.

Script Code B:

if not arcpy.Exists(MergedDataFC): 
    ScriptC.intersect_main(input1, input2) 

if not arcpy.Exists(MergedDataSHP): 
    shpList = arcpy.ListFields(*.shp) # output of multiprocess 
    # Merge all shapefiles into single shapefile 
    # Being executed before the multiprocess finishes all 52 items 

Script code C:

import multiprocessing as mp 

def intersect_main(input1,input2):  
try: 
    mp.freeze_support() 
    # Create a list of states for input1 polygons 
    log.log("Creating Polygon State list...") 
    fldList = arcpy.ListFields(input1) 
    flds = [fld.name for fld in fldList] 
    idList = [] 
    with arcpy.da.SearchCursor(input1, flds) as cursor: 
     for row in cursor: 
      idSTATE = row[flds.index("STATE")] 
      idList.append(idSTATE) 

    idList = set(idList) 
    log.log("There are " + str(len(idList)) + " States (polygons) to process.") 

    log.log("Sending to pool") 
    # declare number of cores to use, use 1 less than the max 
    cpuNum = mp.cpu_count() -1 

    # Create the pool object 
    pool = mp.Pool(processes=cpuNum) 

    # Fire off list to worker function. 
    # res is a list that is created with what ever the worker function is returning 
    log.log ("Entering intersectWork") 
    res = pool.map((intersectWork(input1, input2, idSTATE)),idList) 
    pool.close() 
    pool.join() 

    # If an error has occurred report it 
    if False in res: 
     log.log ("A worker failed!") 
     log.log (strftime('[%H:%M:%S]', localtime())) 
     raise Exception 
    else: 
     log.log("Finished multiprocessing!") 
     log.log (strftime('[%H:%M:%S]', localtime())) 
except Exception, e: 
    tb = sys.exc_info()[2] 
    # Geoprocessor threw an error 
    log.log("An error occurred on line " + str(tb.tb_lineno)) 
    log.log (str(e)) 

def intersectWork(input1,input2, idSTATE): 
try: 
    if idSTATE == None: 
     query = "STATE IS NULL" 
     idSTATE = 'pr' 
    else: 
     query = "STATE = '" + idSTATE + "'" 

    DEMOlayer = arcpy.MakeFeatureLayer_management(input1,"input1_" + idSTATE) 

    log.log (query) 
    arcpy.SelectLayerByAttribute_management(DEMOlayer,"NEW_SELECTION",query) 

    # Do the Intersect 
    outFC = r'C:/EclipseWorkspace' + '/INTER_' + idSTATE.upper() + '.shp' 
    strIntersect = str(DEMOlayer) + ";" + str(input2) 
    arcpy.Intersect_analysis(strIntersect, outFC, "ALL", "", "LINE") 
    return True 
except: 
    # Some error occurred so return False 
    log.log(arcpy.GetMessage(2)) 
    return False 

if __name__ == '__main__': 
    intersect_main(input1, input2) 

Modifier

Toutes les données sur la le serveur est stocké localement, pas de traitement de réseau.

Répondre

0

Le problème était que le chemin d'accès complet aux données n'était pas passé correctement dans pool.map() sur le serveur, à partir des modules précédents. J'ai dû ajouter tous les chemins de fichiers sous les instructions d'importation. Pas très élégant, mais ça marche.