J'essaye de charger des données d'Oracle à Hive en tant que parquet. Chaque fois que je charge une table avec la colonne date/timestamp pour la ruche, elle convertit automatiquement ces colonnes en BIGINT. Est-il possible de charger des formats d'horodatage/date à hive en utilisant sqoop et en tant que fichier parquet?TIMESTAMP sur la table HIVE
Déjà essayé de créer la table d'abord dans la ruche puis en utilisant impala pour CHARGER LES DONNÉES ENTRER le fichier parquet.
toujours pas avec des erreurs
"fichier XX a un schéma de Parquet incompatible pour la colonne XX Colonne: TIMESTAMP"
BTW, j'utilise Cloudera QuickStart vm. Merci
Merci, il semble que je ne peux pas importer les formats date/timestamp à partir du parquet. – askdk
Ce problème est avec le fichier de parquet en ce moment. Vous pouvez utiliser le format ORC pour importer en horodatage avec l'option '--map-column-hive = TIMESTAMP'. Le format de fichier ORC a de meilleures performances que le parquet. –
@SandeepSingh l'importation de prise en charge de l'importation sqoop au format ORC directement? Je pense que nous devons d'abord importer dans le texte, puis créer la table Hive pour stocker au format ORC? –