Je cherche à consommer de Kafka et enregistrer des données dans Hadoop et Elasticsearch. J'ai vu 2 façons de le faire actuellement: en utilisant Filebeat pour consommer de Kafka et l'envoyer à ES et en utilisant le framework Kafka-Connect. Il existe un module Kafka-Connect-HDFS et Kafka-Connect-Elasticsearch.Kafka-Connect vs Filebeat & Logstash
Je ne sais pas lequel utiliser pour envoyer des données en continu. Bien que je pense que si je veux à un moment donné prendre des données de Kafka et les placer dans Cassandra, je peux utiliser un module Kafka-Connect pour cela mais aucune fonctionnalité n'existe pour Filebeat.
Je ne comprends pas pourquoi Filebeat est utilisé ici. Il lit les fichiers, pas les messages TCP de Kafka. Logstash –