J'essaie d'exporter un champ d'une très grande table - contenant 5 000 000 enregistrements, par exemple - dans une liste csv - mais pas tous ensemble, plutôt , 100 000 enregistrements dans chaque fichier .csv créé - sans duplication. Comment puis-je faire cela, s'il vous plaît?Comment exporter une grande table en 50 petits fichiers CSV de 100 000 enregistrements chacun
J'ai essayé
SELECT field_name
FROM table_name
WHERE certain_conditions_are_met
INTO OUTFILE /tmp/name_of_export_file_for_first_100000_records.csv
LINES TERMINATED BY '\n'
LIMIT 0 , 100000
qui donne les 100000 premiers disques, mais rien que je ne les a d'autres 4.900.000 enregistrements exportés dans 49 autres fichiers - et comment puis-je spécifier les 49 autres noms de fichiers?
par exemple, j'essayé ce qui suit, mais la syntaxe SQL est erronée:
SELECT field_name
FROM table_name
WHERE certain_conditions_are_met
INTO OUTFILE /home/user/Eddie/name_of_export_file_for_first_100000_records.csv
LINES TERMINATED BY '\n'
LIMIT 0 , 100000
INTO OUTFILE /home/user/Eddie/name_of_export_file_for_second_100000_records.csv
LINES TERMINATED BY '\n'
LIMIT 100001 , 200000
et qui n'a pas créé le second fichier ...
ce que je fais mal, s'il vous plaît, et Y a-t-il une meilleure manière de faire cela? Est-ce que le LIMIT 0, 100000 doit être placé avant la première instruction INTO OUTFILE, puis répétez la commande entière de SELECT pour les 100.000 autres enregistrements, etc.?
Merci pour toute aide.
Eddie