curl -XPUT 'http://localhost:9200/testsoundi' -d '{ "settings": {
"analysis": {
"analyzer": {
"my_edge_ngram_analyzer": {
"tokenizer": "my_edge_ngram_tokenizer"
}
},
"tokenizer": {
"my_edge_ngram_tokenizer": {
"type": "edgeNGram", "min_gram" : "2", "max_gram" : "5",
"token_chars": ["letter", "digit","whitespace"]
}
}
}
}
}'
[email protected]:~/Downloads/elasticsearch-2.4.0/bin$ curl 'localhost:9200/testsoundi/_analyze?pretty=1&analyzer=my_edge_ngram_analyzer' -d 'wonder'
mais je reçois la sortie comme wo, gagné, wond, etc. Si je donne max_gram comme 3, je reçois seulement jusqu'à la troisième lettre ('wo', 'gagné')ngram ElasticSearch
I am expecting output like:
won
ond
nde
der
Quelqu'un peut-il m'aider avec ceci?
Merci une tonne! Ça marche. Parfait. :) –
Génial, heureux que cela a fonctionné! – Val
Val - J'essaie d'écrire un analyseur qui sépare les jetons sur les caractères spéciaux avec des espaces, et les convertit en majuscules. et si je recherche avec des minuscules aussi cela devrait fonctionner - http://stackoverflow.com/questions/39643533/custom-analyzer-which-breaks-the-tokens-on-special-characters-and-lowercase-uppe - pouvez-vous aider si possible .. –