Je voudrais obtenir une donnée de la base de données netezza qui est de 5 Go et l'écrire sur un disque local. J'ai essayé ce qui suit:Lecture de la base de données et écriture sur le disque local, big data
pd.concat([chunk for chunk in (pd.read_sql("""SELECT * FROM table""",conn,chunksize=10000))]).to_sql('table1',conn1)
Cela prend beaucoup de temps, presque un jour. Quelqu'un peut-il s'il vous plaît suggérer une alternative pour faire le processus rapidement, de sorte que je peux traiter avec une plus grande quantité de données de 25 Go?