J'ai lu par Stackoverflow peut-être que les projets es-hadoop/es-spark utilisent l'indexation en bloc. Si c'est le cas, la taille par défaut est définie par BulkProcessor (5Mb). Y at-il une configuration pour changer cela.Elasticsearch hadoop configurer la taille de lot en vrac
J'utilise JavaEsSparkSQL.saveToEs(dataset,index)
dans mon code et je veux savoir quelles sont les configurations disponibles disponibles pour optimiser la performance. Est-ce lié au partitionnement de l'ensemble de données également.