1

lorsque j'intègre un fichier de données de 100 Ko dans le concentrateur d'événements, lorsque je lis les données du concentrateur d'événements. fichier.Les données de taille d'entrée du concentrateur d'événements ont trois fois plus de capacité de sortie lorsqu'elles sont lues avec des analyses de flux

S'il vous plaît confirmer

+1

la sortie et la taille entrée correspond pas, je suis en train d'écrire des données dans le lac de données azur – user3843858

+0

Salut à tous, est tout le visage du corps ce problème – user3843858

+0

Comment avez-vous configurer le 'événement sérialisation format' (JSON, CSV ou Avro) et les propriétés 'Format' lorsque vous configurez l'entrée Event Hub et la sortie Data Lake Store? Et quelle est la requête pour vous de générer les données pour la sortie. –

Répondre

0

J'ai eu une même question et que enquêtait que, le nombre d'entrée (par octet et la taille) a été multipliée par des facteurs de séparation. les partitions ont été créées et mappées en tant qu'entrées (nous avons seulement 2 entrées), mais quand vous verrez votre diagramme de travail - cliquez sur ... et sélectionnez développer des partitions. Par image jointe, l'entrée de notre hub IoT est étendue à partitions.

Two inputs seen as a multiple partitions