J'ai importé des données de mysql vers hdfs comme avroformat. J'ai déplacé le fichier .avsc à hdfs et en créant la table hive en utilisant le fichier .avsc. S'il vous plaît voir le tableau ci-dessous:NO données pour la table ruche créée à partir du schéma avsc
.AVSC fichier: -rw-r - r-- 3 jonnavithulasivakrishna hdfs 1041 2017-09-13 00:05 hdfs: //nn01.itversity.com: 8020/utilisateur/jonnavithulasivakrishna /products.avsc
tableau créé:
hive (siv_sqoop_import)> CREATE EXTERNAL TABLE Products_1
> ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
> STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
> OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
> location '/user/jonnavithulasivakrishna/products'
> TBLPROPERTIES('avro.schema.url'='hdfs://nn01.itversity.com:8020/user/jonnavithulasivakrishna/products.avsc');
OK
Time taken: 0.155 seconds
hive (siv_sqoop_import)> select * from Products_1 limit 10;
OK
Time taken: 0.294 seconds
Comme vous le voyez, il a créé sans data.Could vous me aider s'il vous plaît pourquoi je ne reçois pas les données dans ce tableau.
Partager votre commande Sqoop, essayez aussi d'ajouter defaultFS « hdfs://nn01.itversity.com:8020/ "pour localiser aussi. –
Veuillez trouver la commande sqoop ci-dessous: –
avez-vous essayé "hdfs: //nn01.itversity.com: 8020/user/jonnavithulasivakrishna/products" comme emplacement –