lorsque j'intègre un fichier de données de 100 Ko dans le concentrateur d'événements, lorsque je lis les données du concentrateur d'événements. fichier.Les données de taille d'entrée du concentrateur d'événements ont trois fois plus de capacité de sortie lorsqu'elles sont lues avec des analyses de flux
S'il vous plaît confirmer
la sortie et la taille entrée correspond pas, je suis en train d'écrire des données dans le lac de données azur – user3843858
Salut à tous, est tout le visage du corps ce problème – user3843858
Comment avez-vous configurer le 'événement sérialisation format' (JSON, CSV ou Avro) et les propriétés 'Format' lorsque vous configurez l'entrée Event Hub et la sortie Data Lake Store? Et quelle est la requête pour vous de générer les données pour la sortie. –