Diskussion:Viterbi-Algorithmus

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 5 Jahren von HilberTraum in Abschnitt Fehler im Abschnitt Algorithmus
Zur Navigation springen Zur Suche springen

"Der Viterbi-Algorithmus ist eng verwandt mit dem Faltungscode zur Vorwärtsfehlerkorrektur von Datenströmen"

könnte besser als

"Der Viterbi Algorithmus ist der optimale Algorithmus zur Dekodierung von Faltungscodes"

formuliert werden.

Nicht nur Faltungscodes, auch Blockcodes können damit optimal dekodiert werden.

-- Unbekannt

Wenn dem so ist, dann schreib es doch einfach rein. Das ist schliesslich das Prinzip eines Wikis.

-- Sparti 20:40, 19. Mai 2005 (CEST)Beantworten

Der Artikel ist sehr unvollständig. Es fehlt beispielsweise eine Illustration eines Trellis (oder wenigstens die Erwähung des Begriffs). Und was ist mit Min-Summe vs Max-Produkt?

Der Pseudo-Code ist absolut unverständlich und somit überflüssig. Die Kernzeile

 result =  * v[k][i-1] * t[k][j];

hängt völlig in der Luft. Was ist t[k][j]? Was ist e_k(X_i)? Gruß Alfred

Veranschaulichung fehlerhaft?[Quelltext bearbeiten]

Mir scheint, dass die Veranschaulichung sagt, dass die Ausgaben mit den Zuständen assoziiert sind. Tatsächlich sollten sie doch aber den Übergängen zugeordnet sein, oder? Der Unterschied ist, dass die Ausgabewahrscheinlichkeiten (und Symbole!) dann davon abhängig sind, auf welchem Weg man zu einem Zustand kommt und nicht nur vom Zustand selbst. Wer weiss es genau? --Tmalsburg 14:07, 1. Dez 2005 (CET)

Nein, in einem HMM ist die Ausgabe nur vom grade geultigen Zustand abhaengig. Wie man in diesen Zustand gekommen ist is unerheblich. Es existiert eine Zustandsuebergangswahrscheinlichkeitsmatrix der Form A_ij (Wahrscheinlichkeit, vom Zustand i in den Zustand j zu wechseln) und eine Emissionsmatrix B_ij (im Falle eines diskreten Ausgabealphabets: Die Wahrscheinlichkeit im zustand i das Ausgabesymbol j zu emmitieren) oder einen Vektor von Emissionswahrscheinlichkeitsdichtefunktionen b_i(x) (eine pro Zustand: Die Wahrscheinlichkeitsdichtefunktion des Zustands i ueber den Wahrschinlichkeitsraum ).
Die Veranschaulichung ist fehlerhaft, da sie nur das HMM darstellt. Was das mit dem Algorithmus im Detail zu tun hat, sucht man in dieser sogenannten Veranschaulichung vergeblich. Manchmal kriege ich das Gefühl, dass stochastische Artikel nur noch von Leuten verfasst werden, die der natürlichen Sprache nicht mehr mächtig sind.
Wenn man kein Mathematiker ist, ist man nach dem Durchlesen dieses Artikels genau so schlau wie zuvor. (nicht signierter Beitrag von 89.182.86.13 (Diskussion) 05:49, 3. Jun. 2012 (CEST)) Beantworten

spracherkennung[Quelltext bearbeiten]

Spracherkennung ohne diesen Algorithmus wäre schwer zu realisieren.

Das ist eine unbelegte und höchst zweifelhafte aussage. fakt ist dass der algorithmus gerne verwendet wird, aber nur deswegen heisst es nicht dass forschung nicht andere gute, oder sogare geeignetere finden könnte, nur dass er ausreichend ist um ihn lieber zu verwenden anstatt zeit zu verwenden etwas zu suchen was besser sein könnte.

Dämliches Geschwätz[Quelltext bearbeiten]

Der Artikel enthält meiner Meinung nach zu viel sinnloses Gefasel. Beispiel (es geht um Mustererkennung):

"Das ist ein weites Feld, da Lebewesen ständig Sinnesreize interpretieren müssen und aus dem bereits Gelernten diese Signale einordnen."

Was soll das? Mustererkennung? Lebewesen? Sinnesreize? Das ist einfach blanker Stuß.

"[Viterbi ist] ein wichtiger Baustein der Künstlichen Intelligenz"

Schon die Formulierung ist zum Kotzen. Was den Inhalt angeht, fehlt natürlich jeglicher Beleg der Aussage.

"...im Gegensatz zum exponentiellen Aufwand des zugrunde liegenden Hidden Markov Model."

Auch Müll. Stochastische Modelle haben keinen "Aufwand".

Ich wagte es nicht, den ganzen Mist einfach rauszuschmeißen, daher erstmal der Diskussionsbeitrag.

Ausserdem ist Backtracking nicht gleich Backtracing. -- MO (nicht signierter Beitrag von 78.232.94.14 (Diskussion | Beiträge) 21:05, 29. Mai 2009 (CEST)) Beantworten

Ohne jetzt Autor der beanstandeten Passagen zu sein - aber Dein Ton ist ja wohl das Letzte. Formulierungen wie 'Dämliches Geschwätz', 'Mist', 'Müll', 'zum Kotzen' ... sind für die sachliche Kritik überflüssig und damit beleidigst Du persönlich die Autoren.
Unabhängig davon, die Begriffe 'Backtracking' und 'Backtracing' werden in der Literatur uneinheitlich verwendet/definiert.
Wenn Du umfangreiche Änderungen vorher auf der Diskussionsseite besprechen möchtest, dann schreib' doch direkt dazu _wie_ du den Artiekl konkret verbessern möchtest. --Gms 21:49, 17. Jun. 2009 (CEST)Beantworten


Wer bitte soll diese Formeln verstehen?[Quelltext bearbeiten]

Immer mehr Wikipedia-Autoren entscheiden sich dafür, ihr Wissen für sich zu behalten. Der Abschnitt "Algorithmus" ist für den Suchenden oder Lernenden in keiner Weise hilfreich. Wenn Wiki eine Pedia sein soll, dann bitte Bilder statt Formeln, Beispiele statt Codezeichen, Erklärungen statt Gleichungen!

-- Heinzelmann 09:46, 19. Jul. 2010 (CEST)Beantworten

Die Formeln sind essentiel (wie bei allen mathematischen Problemen), aber eine zusätzliche Erklärung wäre sicher hilfreich. Ich schau mal ob ich in meinen Unterlagen was passendes finde. Grüße --Wookie 15:52, 19. Jul. 2010 (CEST)Beantworten

Heinzelmann, wenn Sie in der Schule nicht aufgepasst haben, dann ist das kein Problem vom Wikipedia.

Einheitliche Notation[Quelltext bearbeiten]

Ich würde für ein besseres Verständnis und einen leichteren Einstieg in die Thematik dringend eine Vereinheitlichung der Notation in Hidden Markov Model, Forward-Algorithmus, Backward-Algorithmus und Viterbi-Algorithmus vorschlagen!

Persönlich tendiere ich dabei zu einer leicht erweiterten Version von Forward-Algorithmus:

  • Modell:
  • Zustandsmenge:
  • Übergangsmatrix:
  • Beobachtungsmatrix:
  • Anfangs-wkt.-verteilung:
  • Ausgabealphabet
  • Forward-Variable:
  • Backward-Variable:

Ich werde den gleichen Vorschlag auch auf den entsprechenden anderen Diskussionsseiten unterbreiten.

-- 82.119.29.173 19:41, 10. Jan. 2013 (CET)Beantworten

Fehler im Abschnitt Algorithmus[Quelltext bearbeiten]

Hallo Wikianer, im Abschnitt Algorithmus unter Rekursion fehlt in der argmax Klammer das b_i(o_t). Dieses ist im englischen Artikel auch zu finden und sollte eingefuegt werden. Vielen Dank (nicht signierter Beitrag von 2001:638:a000:4130:131:188:30:102 (Diskussion) 15:31, 3. Jul. 2018 (CEST))Beantworten

Im englischen Artikel steht aber auch „Note that does not need to appear in the latter expression, as it's non-negative and independent of and thus does not affect the argmax.“ Also kann man es wohl auch so machen wie hier im Artikel. – HilberTraum (d, m) 20:22, 3. Jul. 2018 (CEST)Beantworten