Je ne comprends pas bien l'idée derrière les minima dans la dérivation de la formule de régression logistique. L'idée est d'augmenter le plus possible l'hypothèse (c'est-à-dire la probabilité de prédiction correcte proche de 1 possible), ce qui nécessite à son tour de minimiser autant que possible la fonction de coût $ J (\ theta) $.Minimums locaux et globaux de la fonction de coût dans la régression logistique
Maintenant, on m'a dit que pour que tout cela fonctionne, la fonction de coût doit être convexe. Ma compréhension de la convexité exige qu'il n'y ait pas de maximum, et donc il ne peut y avoir qu'un minimum, le minimum global. Est-ce vraiment le cas? Si ce n'est pas le cas, veuillez expliquer pourquoi. En outre, si ce n'est pas le cas, cela implique la possibilité de multiples minima dans la fonction de coût, impliquant plusieurs ensembles de paramètres produisant des probabilités de plus en plus élevées. Est-ce possible? Ou puis-je être certain que les paramètres renvoyés se réfèrent aux minima globaux et donc à la probabilité/prédiction la plus élevée?
(1) Le problème de régression logistique est convexe (2) Parce qu'il est convexe, local-minimum = global-minimum 3) La régulation est une approche très importante dans cette tâche; par exemple. ajouter quelques coûts pour pénaliser les poids (4) La régulation basée sur L2 n'a qu'une solution (5) La régulation basée sur L1 pourrait avoir plusieurs solutions du même objectif; encore convexe (6) Il existe des algorithmes ne garantissant pas la convergence vers l'optimum comme les approches SGD. Ils sont toujours importants dans l'opt-out à grande échelle – sascha