Likelihood-Funktion

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Likelihood-Funktion (oft einfach nur Likelihood), gelegentlich auch Plausibilitätsfunktion oder Mutmaßlichkeitsfunktion genannt,[1] ist eine spezielle reellwertige Funktion in der mathematischen Statistik, die aus einer Wahrscheinlichkeitsdichtefunktion oder einer Zähldichte gewonnen wird, indem man einen Parameter der Dichte als Variable behandelt. Zentrale Verwendung der Likelihood-Funktion ist die Konstruktion von Schätzfunktionen durch die Maximum-Likelihood-Methode. Zudem werden aus ihr weitere Funktionen wie die Log-Likelihood-Funktion und die Score-Funktion abgeleitet, die beispielsweise als Hilfsfunktionen bei der Maximum-Likelihood-Methode oder zur Konstruktion von Optimalitätskriterien in der Schätztheorie verwendet werden.

Das Konzept stammt aus den 1920er Jahren von Ronald Aylmer Fisher,[2][3] der glaubte, es sei ein in sich geschlossenes Rahmenwerk für statistische Modellierung und Inferenz. Später führten George Alfred Barnard und Allan Birnbaum eine wissenschaftliche Schule an, die das Plausibilitätsprinzip vertrat, das postulierte, dass alle relevanten Informationen für die statistische Inferenz in der Likelihood-Funktion enthalten sind.

Gegeben sei eine Wahrscheinlichkeitsdichtefunktion oder eine Zähldichte

,

welche noch zusätzlich von einem oder mehreren Parametern aus einer Parametermenge abhängt. Es ist also . Dann heißt die Funktion

,

die durch

definiert wird, die Likelihood-Funktion.[4][5] Die Dichtefunktion wird somit zur Likelihood-Funktion, indem man den Parameter als Variable auffasst und die Variable als Parameter behandelt. Wird ein konkretes fixiert, so nennt man auch die Likelihood-Funktion zum Beobachtungswert .[1] Im Falle einer Zähldichte gibt somit die Wahrscheinlichkeit von bei gegebenem Parameter an.

Wahrscheinlichkeitsdichte

[Bearbeiten | Quelltext bearbeiten]

Betrachtet man unabhängig und identisch normalverteilte Zufallsvariablen mit unbekanntem Erwartungswert und unbekannter Varianz , so besitzt aufgrund der Unabhängigkeitsannahme die Wahrscheinlichkeitsdichtefunktion

Somit ist der Parameter gegeben als und stammt aus der Parametermenge . Folglich ist die Likelihood-Funktion

,

sie stimmt also mit der Dichtefunktion überein, mit dem Unterschied, dass und die Variablen sind und als Parameter behandelt wird. Für korrelierte Zufallsvariablen erhält man die Likelihood-Funktion nicht als einfaches Produkt und sie muss anders als oben dargestellt berechnet werden[6].

Setzt man und , so ist die Likelihood-Funktion unter Annahme von Unabhängigkeit zum Beobachtungswert

.

Ist eine zum Parameter binomialverteilte Zufallsvariable bei fixiertem , also

,

so besitzt sie die Zähldichte

für . Folglich ist die Likelihood-Funktion von der Form

mit und . Die Likelihood-Funktion zum Beobachtungswert ist dann gegeben durch

.

Hauptverwendung findet die Likelihood-Funktion bei der Maximum-Likelihood-Methode, einer intuitiv gut zugänglichen Schätzmethode zur Schätzung eines unbekannten Parameters . Dabei geht man bei einem Beobachtungsergebnis davon aus, dass dieses ein „typisches“ Beobachtungsergebnis ist in dem Sinne, dass es sehr wahrscheinlich ist, solch ein Ergebnis zu erhalten. Die Wahrscheinlichkeit dafür, zu erhalten hängt von der Wahrscheinlichkeitsdichtefunktion und damit auch von ab. Daher gibt man als Schätzung für den unbekannten Parameter denjenigen Parameter an, für den die Wahrscheinlichkeit des Eintretens von maximal ist. Dafür betrachtet man die Likelihood-Funktion zum Beobachtungswert und sucht ein , so dass

.

Dies entspricht der Bestimmung einer Maximalstelle der Likelihood-Funktion, welche meist durch Nullsetzen der Ableitung bestimmt wird:

.

Ist diese Gleichung schwer zu lösen, bietet sich die Log-Likelihood-Funktion als Hilfsmittel an.

Aufbauende Begriffe

[Bearbeiten | Quelltext bearbeiten]

Log-Likelihood-Funktion

[Bearbeiten | Quelltext bearbeiten]

Die Log-Likelihood-Funktion (auch logarithmische Plausibilitätsfunktion genannt[7]) ist definiert als der (natürliche) Logarithmus aus der Likelihood-Funktion,[5] also (beachte Kalligrafie in der Formel)

.

Teils wird die Log-Likelihood-Funktion auch mit oder bezeichnet.[8]

Aufbauend auf den obigen beiden Beispielen für die Likelihood-Funktion gilt im Falle der unabhängig und identisch normalverteilten Zufallsvariablen für die Log-Likelihood-Funktion

.

Im Falle der Binomialverteilung gilt für die Log-Likelihood-Funktion

.

Beides folgt aus den Rechenregeln für den Logarithmus (siehe Logarithmengesetze).

Da der Logarithmus eine streng monoton wachsende Funktion ist, ist jedes Minimum der Log-Likelihood-Funktion auch ein Minimum der Likelihood-Funktion. Ebenso ist jedes Maximum der Log-Likelihood-Funktion auch ein Maximum der Likelihood-Funktion.

Außerdem ist die Log-Likelihood-Funktion bei unabhängig und identisch verteilten Zufallsvariablen additiv. Das bedeutet, dass wenn unabhängig und identisch verteilte Zufallsvariablen mit Dichte und Log-Likelihood-Funktion sind, so besitzt die Log-Likelihood-Funktion

.

Dies folgt direkt aus der Tatsache, dass die Dichten von als Produkt gebildet werden, und den Rechenregeln des Logarithmus.

Da die Log-Likelihood-Funktion dieselben Maximalstellen besitzt wie die Likelihood-Funktion, ist sie ein gängiges Hilfsmittel zur Lösung der Gleichung

,

welche bei der Maximum-Likelihood-Methode anfällt. Anstelle dieser Gleichung wird dann die Gleichung

gelöst. Insbesondere die Additivität der Log-Likelihood-Funktion bei unabhängig und identisch verteilten Zufallsvariablen erleichtert das Lösen der Gleichung in vielen Fällen.

In einparametrigen Modellen definiert man die Score-Funktion als erste Ableitung der Log-Likelihood-Funktion[9]

Sie ist also die logarithmische Ableitung der Likelihood-Funktion. Die Score-Funktion gibt die Steigung der Log-Likelihood-Funktion an der jeweiligen Stelle an und muss nicht immer existieren. Sie taucht ebenfalls bei der Fisher-Information auf.

Für die Binomialverteilung wurde oben bereits gezeigt, dass die Likelihood-Funktion von der Form

ist. Daher ist

.

Leitet man diese Funktion nach ab, so fällt der erste Term als Konstante weg und mit den Ableiteregeln für den Logarithmus (siehe Ableitung und Integral) folgt

für die Score-Funktion.

Die Score-Funktion ist asymptotisch normalverteilt mit Erwartungswert Null und Varianz als Erwartungswert der Fisher-Information (auch Erwartete Fisher-Information genannt):[10]

bzw. .

Pseudo-Likelihood-Funktion

[Bearbeiten | Quelltext bearbeiten]

Für die Lösung des Maximum-Likelihood-Problems ist nur das Auffinden des Maximums der Likelihood-Funktion von Belang. Dies ist einer der Gründe, warum die Maximum-Likelihood-Methode oft auch funktioniert, obwohl die Voraussetzungen nicht erfüllt sind. In den folgenden Fällen spricht man von einer Pseudo-Likelihood-Funktion:

  • die Verteilungsvoraussetzungen für die Maximum-Likelihood-Methode sind nicht erfüllt: Man nennt dann die Likelihood-Funktion eine Pseudo-Likelihood-Funktion und
  • die eigentliche Likelihood-Funktion oder Log-Likelihood-Funktion ist zu schwierig zu maximieren und wird z. B. durch eine geglättete Version ersetzt und diese Pseudo-Likelihood-Funktion wird dann maximiert.

Kern der Likelihood-Funktion

[Bearbeiten | Quelltext bearbeiten]

Den Kern der Likelihood-Funktion (Kern der Plausibilitätsfunktion) erhält man aus der Likelihood-Funktion, indem man alle multiplikativen Konstanten vernachlässigt. Für gewöhnlich wird mit sowohl die Likelihood-Funktion als auch deren Kern bezeichnet. Die Verwendung der Log-Likelihood-Funktion ist häufig numerisch sinnvoll. Multiplikative Konstanten in wandeln sich dann in additive Konstanten in , die wiederum häufig ignoriert werden können. Eine Log-Likelihood-Funktion ohne additive Konstanten wird Kern der Log-Likelihood-Funktion genannt. Auch hier wird gewöhnlich mit sowohl die Log-Likelihood-Funktion als auch deren Kern bezeichnet.[11] Beispielsweise wäre der Kern der Log-Likelihood-Funktion einer Normalverteilung mit unbekanntem Erwartungswert und bekannter Varianz :[12]

.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 203, doi:10.1515/9783110215274.
  2. Fisher, On the "probable error" of a coefficient of correlation deduced from a small sample, Metron, Band 1, 1921, S. 3–32.
  3. Fisher, On the mathematical foundations of theoretical statistics, Philosophical Transactions of the Royal Society A, Band 222, 1922, S. 309–368.
  4. Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, S. 162, doi:10.1007/978-3-642-41997-3.
  5. a b Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Für Studium, Berufspraxis und Lehramt. 8. Auflage. Vieweg, Wiesbaden 2005, ISBN 3-8348-0063-5, S. 62, doi:10.1007/978-3-663-09885-0.
  6. Joseph L. Neuringer, Alan Kaplan: Maximum likelihood equations for a correlated multivariate normal distribution. In: International Journal of Mathematical Education in Science and Technology. Band 14, Nr. 4, 1. Juli 1983, ISSN 0020-739X, S. 441–444, doi:10.1080/0020739830140408.
  7. Reinhard Viertl: "Einführung in die Stochastik: mit Elementen der Bayes-Statistik und Ansätzen für die Analyse unscharfer Daten." Springer-Verlag, 2013, S. 110.
  8. Claudia Czado, Thorsten Schmidt: Mathematische Statistik. Springer-Verlag, Berlin Heidelberg 2011, ISBN 978-3-642-17260-1, S. 85, doi:10.1007/978-3-642-17261-8.
  9. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 201, doi:10.1515/9783110215274.
  10. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 87.
  11. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 15.
  12. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 27. ff.