0

Je dois sauvegarder quelques tables DynamoDB qui ne sont pas trop grandes pour l'instant sur S3. Cependant, ce sont des tables qu'une autre équipe utilise/travaille mais pas moi. Ces sauvegardes doivent avoir lieu une fois par semaine et ne seront utilisées que pour restaurer les tables DynamoDB dans des situations désastreuses (si tout va bien, jamais). J'ai vu qu'il y avait un moyen de le faire en mettant en place un pipeline de données, que je suppose que vous pouvez planifier pour faire le travail une fois par semaine. Cependant, il semble que cela permettrait de garder le pipeline ouvert et de commencer à payer des frais. Donc, je me demandais, s'il y a une différence de coût significative entre sauvegarder les tables via le pipeline et le garder ouvert, ou créer quelque chose comme un powershellscript qui sera programmé pour fonctionner sur une instance EC2, qui existe déjà, qui créerait manuellement un fichier de mappage JSON et mettez-le à jour vers S3.
Aussi, je suppose qu'une autre question est plus d'une question de praticité. Il est difficile de sauvegarder les tables dynamoDB au format Json. Cela ne semble pas trop dur mais n'était pas sûr. Désolé si ces questions sont trop générales.Sauvegarde des tables DynamoDB via data pipeline vs création manuelle d'un json pour dynamoDB

Répondre

0

Est-ce que vous travaillez sous l'hypothèse que Data Pipeline maintient le serveur pour toujours? Ce n'est pas le cas. Par exemple, si vous avez défini une activité de shell, une fois l'activité terminée, le serveur se terminera. (Vous pouvez régler manuellement la protection de terminaison. Ref.

Puisque vous exécutez seulement un pipeline une fois par semaine, les coûts ne sont pas élevés.

Si vous exécutez une tâche cron sur l'instance EC2, cette instance doit quand vous voulez exécuter la sauvegarde -. et qui pourrait être un point de défaillance

soit dit en passant, Amazon fournit un exemple de Datapipeline sur how to export data from dynamodb

+0

L'instance EC2 que j'ai mentionnée est déjà en cours d'exécution car elle exécute également d'autres tâches qui doivent continuellement s'exécuter. J'avais juste peur de faire un travail de pipeline une fois par semaine, mais le fait de garder ce pipeline créé mais inutilisé entraînerait un coût important. Je suppose que je pourrais théoriquement planifier le pipeline de données à créer chaque semaine, faire le travail et ensuite le supprimer. –

+0

Il engage 1 $ par mois juste pour le pipeline. https://aws.amazon.com/datapipeline/pricing/ - et le coût d'exécution d'une instance EC2 pendant l'exécution de la tâche. Si vous définissez la fréquence de la tâche sur hebdomadaire, Datapipeline fournit une ressource à ce moment-là, exécute la tâche et, lorsqu'elle est terminée, met fin à la ressource. – user1452132

0

Je viens de vérifier la page des coûts de pipeline, et il dit: « Par exemple, un. pipeline qui exécute un travail quotidien (une activité Basse Fréquence) sur AWS pour répliquer un Amazon DynamoDB table à Amazon S3 coûterait 0,60 $ par mois ". Donc je pense que je suis en sécurité.