J'ai 200GB/400Mrows mysql/base de données innodb - bien au-delà de ce qui est raisonnable comme je l'ai découvert.Sauvegardes fiables pour les énormes bases de données mysql?
Un problème surprenant est la restauration des sauvegardes. mysqldump génère d'énormes fichiers sql, et il faut environ une semaine pour les importer dans une nouvelle base de données (tentatives de les rendre plus rapides comme des transactions plus grandes/plus petites, désactiver des clés pendant l'importation, etc. 2x plus rapide mais il n'y aurait pas de transactions). Ce qui est pire - et j'espère obtenir de l'aide avec ceci - une connexion réseau qui transfère> 200GB sur une période de temps d'une semaine a une chance non-trivial de casser, et le processus d'importation de sql ne peut pas continuer dans n'importe quel non façon -triviale.
Quelle serait la meilleure façon de traiter avec elle? En ce moment, si je remarque une connexion interrompue J'essaie manuellement de savoir quand il a fini en vérifiant la plus haute clé primaire de la dernière table importée, puis un PerlScript qui fait essentiellement ceci:
perl -nle 'BEGIN{open F, "prelude.txt"; @a=<F>; print @a; close F;}; print if $x; $x++ if /INSERT.*last-table-name.*highest-primary-key/'
Ceci est vraiment pas le chemin à parcourir, alors quelle serait la meilleure façon?
Tout est sur le cloud Amazon.Il n'y a pas eu de crash jusqu'à présent, mais je ne me sens pas très heureux du fait que s'il y en a un, il faudra au moins une semaine pour restaurer les sauvegardes + scripts perl ad hoc aléatoires s'il échoue à mi-chemin pour une raison quelconque. – taw