J'estime actuellement un modèle de Markov-commutation avec beaucoup de paramètres en utilisant l'optimisation directe de la fonction log-vraisemblance (par l'algorithme avant-arrière)). Je fais l'optimisation numérique en utilisant l'algorithme génétique de matlab, car d'autres approches comme les algorithmes (principalement basés sur le gradient ou simplex) dans fmincon et fminsearchbnd n'étaient pas très utiles, étant donné que la fonction de vraisemblance est non seulement maxima et est fortement non linéaire. L'algorithme génétique semble fonctionner très bien. Cependant, je prévois d'augmenter encore la dimension du problème. J'ai lu sur un algorithme EM pour estimer les modèles de Markov-commutation. D'après ce que je comprends cet algorithme libère une séquence de valeurs croissantes de log-likelhood. Il semble donc approprié d'estimer des modèles avec de très nombreux paramètres.Estimation par rapport à l'optimisation numérique directe de la fonction de vraisemblance pour estimer le modèle de Markov-Switching/HMM de haute dimension
Ma question est de savoir si l'algorithme EM est adapté à mon application impliquant de nombreux paramètres (peut-être mieux adapté que l'algorithme génétique). La vitesse n'est pas la principale limite (l'algorithme génétique est déjà extrêmement lent) mais il faudrait que j'aie une certaine certitude pour me rapprocher de l'optimum global et ne pas tomber dans l'un des nombreux optima locaux. Avez-vous de l'expérience ou des suggestions à ce sujet?
Vous parlez de calibrer, c'est-à-dire d'estimer les paramètres du modèle, plutôt que d'estimer une trajectoire historique des états basée sur une série d'observations, n'est-ce pas? –
Oui, le but est l'estimation des paramètres, mais cela produira également des probabilités de filtrage et de prédiction (des probabilités lissées peuvent alors être obtenues via l'algorithme de lissage de Kim). – InfiniteVariance