Lecture d'un fichier et construction de dictionnaires par ligne lue.SQLAlchemy insérer la liste des dictionnaires par lots
Dans une boucle pour im en annexe à une liste de ces dictionnaires, lorsque le len(list)
est plus grand à 10K, j'envoie la liste à con.execute(add.insert(list))
et nettoyer la liste. Le problème est que la dernière liste de dictionnaires n'est pas un 10K donc je manque d'insérer le dernier lot.
Je ne pense pas que la construction d'une grande liste de dictionnaires et leur migration en mémoire, puis leur itération sur la liste seraient une façon performante de gérer cela.
Existe-t-il une méthode dans SQLAlchemy où je viens d'envoyer les dictionnaires et de définir la limite de taille de la taille de lot afin qu'elle gère la charge par elle-même? Ou une autre solution ...
chunks.append(data_dict)
if len(chunks) == 10000:
con.execute(add.insert(chunks))
del chunks[:]
.newb slqalchemy apprenant
Merci ACV cela a aidé - avec quelques modifications mineures, il semble stable maintenant. –
Boa, valeu @JorgeVidinha;) – ACV
:-) Ohoh foi joia mesmo. Valeu obrigado. –