je copie des données de HDFS à S3 en utilisant la commande ci-dessous:Copier l'emplacement de s3 en utilisant la commande distcp
$ hadoop distcp -m 1 /user/hive/data/test/test_folder=2015_09_19_03_30 s3a://data/Test/buc/2015_09_19_03_30
seau 2015_09_19_03_30
n'existe pas dans S3. Il copie avec succès les données du répertoire /user/hive/data/test/test_folder=2015_09_19_03_30
dans le compartiment S3 2015_09_19_03_30
, mais lorsque j'exécute à nouveau la même commande, il crée un autre compartiment dans S3.
Je veux que les deux fichiers doivent être dans le même compartiment.