1

J'ai créé un pipeline de données qui extrait les données de S3 et les place dans DynamoDB.
Le pipeline a commencé à fonctionner avec succès.
J'ai mis la capacité d'écriture à 20000 unités, après quelques heures l'écriture a diminué de moitié, maintenant il fonctionne encore avec une capacité d'écriture de 3 unités.AWS DynamoDB - Consommation de la capacité d'écriture réelle du pipeline de données

(La capacité d'écriture n'a pas changé. Le pipeline a commencé au seuil alors diminué à 3 unités et a continué de fonctionner à ce rythme)

Quelle pourrait être la raison de la baisse? Y a-t-il un moyen de le rendre plus rapide?
Merci.

Répondre

0

Je suppose que vous avez utilisé le modèle de ligne de données out-of-box pour copier des données de S3 vers DynamoDB. Ce pipeline ne modifie pas la capacité de votre table dynamodb (sauf si vous avez modifié le pipeline pour ajouter du code pour l'augmenter de façon programmée). Donc, si la capacité d'écriture du DynamoDB est passée de 20000 à 3, quelqu'un doit l'avoir fait manuellement. Je suggère que vous activiez CloudTrail dans votre compte AWS afin que vous puissiez savoir qui/quand fait le changement chaque fois que la même chose arrive la prochaine fois.

+0

La capacité d'écriture n'a pas changé. Le pipeline a commencé au seuil puis a diminué à 3 unités et a continué à fonctionner à ce rythme. Merci. – Anna