2012-05-25 3 views

Répondre

20

Pour expliquer par l'exemple, je vais utiliser un exemple du traitement du langage naturel. Imaginez que vous voulez connaître la probabilité de cette phrase:

Amateur de café

Dans un modèle de Markov, on peut estimer sa probabilité en calculant:

P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy) 

Maintenant, imaginez que nous voulions connaître les parties des parties du discours de cette phrase, c'est-à-dire si un mot est un verbe au passé, un nom, etc.

Nous n'avons pas observer aucuns-of-sp étiquettes Eech dans cette phrase, mais nous supposons ils sont là. Ainsi, nous calculons quelle est la probabilité de la séquence de balises parties-de-discours. Dans notre cas, la séquence réelle est:

PRP-VBP-NN

Mais attendez! C'est une séquence à laquelle on peut appliquer un modèle de Markov. Mais nous l'appelons caché, puisque la séquence des parties du discours n'est jamais directement observée. Bien sûr en pratique, nous allons calculer beaucoup de telles séquences et nous aimerions trouver la séquence cachée qui explique le mieux notre observation (par exemple, nous sommes plus susceptibles de voir des mots tels que 'le', 'ceci', généré par le déterminant (DET) tag)

La meilleure explication que j'ai jamais rencontré est dans un document de 1989 par Lawrence R. Rabiner: http://www.cs.ubc.ca/~murphyk/Bayes/rabiner.pdf

3

Un modèle de Markov caché est un processus stochastique intégré à deux niveaux.

Le niveau supérieur est un processus de Markov et les états ne sont pas observables. En fait, l'observation est une fonction probabiliste des états de Markov de niveau supérieur.

Différents états de Markov auront différentes fonctions probabilistes d'observation.

+10

L'intégralité de cette réponse doit être entre guillemets, en référence au tutoriel de Rabiner. – Rhubarb

+0

Ce n'est vraiment pas facile à comprendre du tout. – goelakash

+0

Pas une réponse claire. du tout. – Ron

19

Le modèle de Markov est une machine d'état avec les changements d'état étant des probabilités. Dans un modèle de Markov caché, vous ne connaissez pas les probabilités, mais vous connaissez les résultats. Par exemple, lorsque vous lancez une pièce de monnaie, vous pouvez obtenir les probabilités, mais si vous ne pouviez pas voir les flips et que quelqu'un bougeait un des cinq doigts à chaque fois, vous pouviez prendre les mouvements des doigts et utiliser un modèle de Markov caché pour obtenir la meilleure estimation des retournements de pièces.

3

depuis Satiné balises parties-de-speech comme un exemple de HMM, je pourrais ajouter un plus d'exemple: Reconnaissance vocale. Presque tous les systèmes de reconnaissance vocale continue à grand vocabulaire (LVCSR) sont basés sur des HMM.

"exemple de Matt": Amateur de café

Dans un modèle de Markov, vous pouvez estimer sa probabilité en calculant:

P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy) 

Dans un modèle de Markov caché,

Disons que 30 personnes différentes lisent la phrase "I Appréciez les câlins " et nous devons le reconnaître. Chaque personne prononcera cette phrase différemment. Donc, nous ne savons pas si la personne voulait dire "étreindre" ou "monopoliser". Nous n'aurons que la distribution probabiliste du mot actuel. En résumé, un modèle de Markov caché est un modèle de Markov statistique dans lequel le système modélisé est supposé être un processus de Markov avec des états (cachés) non observés.

Questions connexes