Je suis coincé dans la conversion des données avro en GenericRecord/ByteArray où j'ai surfé sur google, ce qui me donne la solution inverse. Est-ce que quelqu'un a essayé de convertir AVRO RDD/Dataframes en GenericRecord ou ByteArray en scala? J'ai utilisé cette commande pour lire mes fichiers avro.Comment convertir des données de avro en GenericRecord en scala
spark.read.avro("/app/q.avro")
Il me renvoie des données comme ceci.
res0: org.apache.spark.sql.DataFrame = [recordType: string, recordVersion: string ... 6 more fields]
Alors Comment convertir sql.DataFrame en GenericRecord/ByteArray?
Pourquoi est-ce que vous voulez convertir Daraframe à un autre objet? Je pense qu'il devrait être rangée à Bytearray pas entière de données. –
ouais ... Row à ByteArray est aussi bien pour moi ... –