objectif final: Pour vous connecter ElasticSearch et kafka et recevoir l'événement de changement en cours dans les index ES à kafka. De kafka, je les auditeurs à faire un traitement ultérieur.ElasticSearch à l'événement Kafka - à chaque changement en utilisant Logstash
Méthode: I utilisé Logstash entrée et sortie greffons. Voici le code de configuration.
input {
elasticsearch {
hosts => ["localhost:9200"]
index => "liferay-20116"
}
}
output {
kafka {
topic_id => "elastic-topic-index"
codec => json
}
}
Il fonctionne, mais il y a une question bizarre.
Quand j'écoute KAFKA il lit tout le document de ES qui est d'environ 176 documents en ce moment.
Une fois qu'il lit, il arrête pendant un certain temps dire 2 secondes, puis lisez tout 176 documents à nouveau!
Je ne sais pas quelle est la question, est-ce à cause du comportement Logstash ou Kafka agit bizarre?
Toute aide serait appréciée!
Voulez-vous envoyer des documents entrants si le match une requête? Dans ce regard de cas à https://www.elastic.co/guide/en/elasticsearch/reference/current/query-dsl-percolate-query.html –