1

J'ai +7 millions d'enregistrements stockés dans un fichier CSV hébergé dans un compartiment AWS S3 et je veux les charger dans la table DynamoDB. J'ai essayé des données Service de pipeline AWS mais le travail a toujours échoué car ce service ne prend pas en charge l'importation de format CSV. Donc, je devrais d'abord convertir les données CSV dans un format qui peut être compris par DynamoDB. Y a-t-il un moyen de faire cette conversion?Convertir le fichier csv au format DynamoDB json

+0

Salut @Jaco ou quelqu'un ... avez-vous une réponse à cette question? –

+0

Un script Python personnalisé serait-il une solution appropriée? Je ne suis pas sûr qu'il existe une solution prête à l'emploi pour cela. – Jaco

Répondre

-1

Le service AWS Datapipeline prend en charge l'importation CSV sur dynamo db. Vous pouvez créer un pipeline depuis la console aws pour datapipeline et choisir "Importer des données de sauvegarde DynamoDB à partir de S3". importer CSV stocké dans S3 à Dynamodb.

Voir aussi

http://docs.aws.amazon.com/amazondynamodb/latest/developerguide/DynamoDBPipeline.html#DataPipelineExportImport.Importing

+2

Ce modèle suppose que les données que vous importez proviennent d'une exportation DynamoDB - qui n'est définitivement pas au format CSV. – Jonathan

+0

Yep @Jonathan a raison. –

+0

Juste la première ligne (décrivant la colonne csv) est différente. Les autres lignes de données doivent être identiques. –