Je suis en train d'importer un fichier JSON qui a été transféré dans S3 dans DynamoDBImporter des données de S3 à DynamoDB
Je suivais l'amazone tutoriel a donné
http://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-importexport-ddb-console-start.html
Mais lorsque je tente de activer le pipeline le TableLoadActivity des composants échoue et DDBDestinationTable dit CASCADE_FAILED
les deux donnent l'erreur
à org.apache.hadoop.mapreduce.JobSubmitter.writeOldSplits (JobSubmitter.java:520) à org.apache.hadoop.mapreduce.JobSubmitter.writeSplits (JobSubmitter.java:512) à org.apache.hadoop.mapreduce.JobSubmitter. submitJobInternal (JobSubmitter.java:394) à org.apache.hadoop.mapreduce.Job $ 10.run (Job.java:1285) à org.apache.hadoop.mapreduce.Job $ 10.run (Job.java:1282) at java .security.AccessController.doPrivileged (méthode native) à javax.security.auth.Subject.doAs (Subject.java:415) à org.apache.hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java:1548) at org.apache .hadoop.mapreduce.Job.submit (Job.java:1282) sur org.apache.hadoop.mapred.JobClient $ 1.run (JobClient.java:562) sur org.apache.hadoop.mapred.JobClient $ 1.run (JobClient .java: 557) à java.security.AccessController.doPrivileged (méthode native) à javax.security.auth.Subject.doAs (Subject.java:415) à org.apache.hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java : 1548) sur org.apache.hadoop.mapr ed.JobClient.submitJobInternal (
Toute aide serait appréciée