2017-09-13 1 views
0

J'ai importé des données de mysql vers hdfs comme avroformat. J'ai déplacé le fichier .avsc à hdfs et en créant la table hive en utilisant le fichier .avsc. S'il vous plaît voir le tableau ci-dessous:NO données pour la table ruche créée à partir du schéma avsc

.AVSC fichier: -rw-r - r-- 3 jonnavithulasivakrishna hdfs 1041 2017-09-13 00:05 hdfs: //nn01.itversity.com: 8020/utilisateur/jonnavithulasivakrishna /products.avsc

tableau créé:

hive (siv_sqoop_import)> CREATE EXTERNAL TABLE Products_1 
         > ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.avro.AvroSerDe' 
         > STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat' 
         > OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat' 
         > location '/user/jonnavithulasivakrishna/products' 
         > TBLPROPERTIES('avro.schema.url'='hdfs://nn01.itversity.com:8020/user/jonnavithulasivakrishna/products.avsc'); 
OK 
Time taken: 0.155 seconds 
hive (siv_sqoop_import)> select * from Products_1 limit 10; 
OK 
Time taken: 0.294 seconds 

Comme vous le voyez, il a créé sans data.Could vous me aider s'il vous plaît pourquoi je ne reçois pas les données dans ce tableau.

+0

Partager votre commande Sqoop, essayez aussi d'ajouter defaultFS « hdfs://nn01.itversity.com:8020/ "pour localiser aussi. –

+0

Veuillez trouver la commande sqoop ci-dessous: –

+0

avez-vous essayé "hdfs: //nn01.itversity.com: 8020/user/jonnavithulasivakrishna/products" comme emplacement –

Répondre

0

S'il vous plaît trouver la commande Sqoop ci-dessous:

importation Sqoop \ --connect "jdbc: mysql: //nn01.itvserity.com: 3306/retail_db" \ --username retail_dba -P \ - produits -Table \ --en-avrodatafile \ --num-cartographes 6 \ --target-dir "/ user/jonnavithulasivakrishna/produits" \