Notre ThinkingSphinx indexe une table avec plus de 500 millions d'enregistrements. Nous essayons de trouver 120 000 enregistrements correspondant à une requête donnée. Cependant, je ne veux pas changer le max_matches
de peur que nous manquerons de RAM.Modifier dynamiquement ThinkingSphinx max_matches/offset
De toute évidence, l'erreur que nous obtenons est:
Exception ThinkingSphinx::SphinxError -> offset out of bounds (offset=100000, max_matches=100000)
<query>
AND `sphinx_deleted` = 0 LIMIT 100000, 1000 OPTION max_matches=100000;
est-il un moyen de soit:
- changer dynamiquement le
max_matches
si je ne l'ai pas assez de réponses agrégées? - Une meilleure solution qui me manque?