2016-04-06 1 views
2

Je suis en train d'importer un fichier JSON qui a été transféré dans S3 dans DynamoDBImporter des données de S3 à DynamoDB

Je suivais l'amazone tutoriel a donné

http://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-importexport-ddb-console-start.html

Mais lorsque je tente de activer le pipeline le TableLoadActivity des composants échoue et DDBDestinationTable dit CASCADE_FAILED

les deux donnent l'erreur

à org.apache.hadoop.mapreduce.JobSubmitter.writeOldSplits (JobSubmitter.java:520) à org.apache.hadoop.mapreduce.JobSubmitter.writeSplits (JobSubmitter.java:512) à org.apache.hadoop.mapreduce.JobSubmitter. submitJobInternal (JobSubmitter.java:394) à org.apache.hadoop.mapreduce.Job $ 10.run (Job.java:1285) à org.apache.hadoop.mapreduce.Job $ 10.run (Job.java:1282) at java .security.AccessController.doPrivileged (méthode native) à javax.security.auth.Subject.doAs (Subject.java:415) à org.apache.hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java:1548) at org.apache .hadoop.mapreduce.Job.submit (Job.java:1282) sur org.apache.hadoop.mapred.JobClient $ 1.run (JobClient.java:562) sur org.apache.hadoop.mapred.JobClient $ 1.run (JobClient .java: 557) à java.security.AccessController.doPrivileged (méthode native) à javax.security.auth.Subject.doAs (Subject.java:415) à org.apache.hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java : 1548) sur org.apache.hadoop.mapr ed.JobClient.submitJobInternal (

Toute aide serait appréciée

Répondre

1

j'ai découvert que vous devez sélectionner le dossier intérieur, où « manifeste » est présent. Cette utilisation est le dossier avec la date et l'heure de la sauvegarde.

J'ai reçu cette erreur lorsque j'ai sélectionné le dossier parent, que j'ai donné mon nom de table.