J'ai créé une table Hive par une session interactive Elastic MapReduce et peuplée à partir d'un fichier CSV comme ceci:Exportation Ruche table à un seau S3
CREATE TABLE csvimport(id BIGINT, time STRING, log STRING)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t';
LOAD DATA LOCAL INPATH '/home/hadoop/file.csv' OVERWRITE INTO TABLE csvimport;
Je veux maintenant stocker la table dans une Ruche S3 pour que la table soit conservée une fois que j'ai terminé l'instance de MapReduce.
Est-ce que quelqu'un sait comment faire cela?
Ceci ne copie pas l'en-tête. est-il un moyen de copier l'en-tête aussi? –