Markov-Modell

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Racine carrée bleue.svg
Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen.

Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion! (Artikel eintragen)

In der Wahrscheinlichkeitstheorie ist ein Markov-Modell ein stochastisches Modell, das zur Modellierung sich zufällig verändernder Systeme verwendet wird. Es wird angenommen, dass zukünftige Zustände nur vom aktuellen Zustand abhängen, nicht von den Ereignissen, die davor eingetreten sind (d. h. es nimmt die Markov-Eigenschaft an). Im Allgemeinen ermöglicht diese Annahme Schlussfolgerungen und Rechentechniken, die sonst unmöglich wären. Aus diesem Grund ist es in den Bereichen der prädiktiven Modellierung und probabilistischen Prognose wünschenswert, dass ein bestimmtes Modell die Markov-Eigenschaft aufweist.

Markov-Ketten[Bearbeiten | Quelltext bearbeiten]

Das einfachste Markov-Modell ist die Markov-Kette. Sie modelliert den Zustand eines Systems mit einer Zufallsvariablen, die sich im Laufe der Zeit ändert. In diesem Zusammenhang legt die Markov-Eigenschaft nahe, dass die Verteilung für diese Variable nur von der Verteilung eines vorhergehenden Zustands abhängt. Ein Beispiel für die Verwendung einer Markov-Kette ist das MCMC-Verfahren.

Hidden Markov Model[Bearbeiten | Quelltext bearbeiten]

Ein Hidden Markov Model (deutsch: verborgenes Markov-Modell) ist eine Markov-Kette, bei der der Zustand nur teilweise beobachtbar ist. Mit anderen Worten, die Beobachtungen beziehen sich auf den Zustand des Systems, aber sie sind in der Regel nicht ausreichend, um den Zustand genau zu bestimmen. Es gibt mehrere bekannte Algorithmen für Hidden-Markov-Modelle. Beispielsweise berechnet der Viterbi-Algorithmus bei einer gegebenen Beobachtungssequenz die wahrscheinlichste entsprechende Zustandsfolge, der Forward-Algorithmus berechnet die Wahrscheinlichkeit der Beobachtungssequenz, und der Baum-Welch-Algorithmus schätzt die Startwahrscheinlichkeiten, die Übergangsfunktion und die Beobachtungsfunktion eines Hidden-Markov-Modells.

Eine häufige Anwendung ist die Spracherkennung, bei der die beobachteten Daten die Audiodatei (nur Gesprochenes nach Datenkompression) in Wellenform sind und der verborgene Zustand ist der gesprochene Text. In diesem Beispiel findet der Viterbi-Algorithmus die wahrscheinlichste Sequenz von gesprochenen Wörtern angesichts des Sprachaudios.