Diskussion:Likelihood-Funktion

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 6 Monaten von Sigma^2 in Abschnitt Stichprobe
Zur Navigation springen Zur Suche springen

Was macht das L[Quelltext bearbeiten]

Aus meiner Sicht fehlt in diesem Artikel das abschließende Statement was die Likelihood-Funktion aussagt.

Meines Wissens beschreibt L die Wahrscheinlichkeit, dass die Xe in der gegebenen Dichtefunktion mit gegebenen \theta - Werten so auftreten würden.

Damit könnte man den Artikel noch vervollständigen. (nicht signierter Beitrag von 128.176.237.219 (Diskussion) 22:35, 19. Jul 2010 (CEST))

Meines Wissens ... auftreten würden. ist nur richtig, wenn die Verteilung diskret ist. Bei einer stetigen Verteilung ist es eben nur die Likelihood. Es gibt leider keine gute Übersetzung ins Deutsche, siehe auch Diskussion:Maximum-Likelihood-Methode#Bezeichnung. --Sigbert 21:23, 20. Jul. 2010 (CEST)Beantworten
Was die Likelihood-Funktion aussagt, gehört nicht in ein abschließendes Statement, sondern in die Einleitung. Zurzeit steht dort bloß eine Anwendung (nichtmal die einzige). "Wahrscheinlichkeit" sollte vorkommen (in realen Anwendungen sind Messwerte sind immer diskret). – Rainald62 (Diskussion) 17:39, 18. Okt. 2012 (CEST)Beantworten
Ich finde den Artikel - wie die meisten zu mathematischen Themen - ziemlich unbrauchbar: was bedeutet denn "Die Likelihood-Funktion ... ist definiert als die Funktion, die jedem Parameterwert den Wert {\displaystyle L(\theta |x_{1},x_{2},\dotsc ,x_{n})=f(x_{1},x_{2},\dotsc ,x_{n};\theta )} L(\theta|x_1,x_2,\dotsc,x_n) = f(x_1,x_2,\dotsc,x_n;\theta) ... zuordnet"? "Die" heißt doch, daß es nur eine gibt - warum ist das so, und wie ermittelt man die? Aus dem Beispiel weiter unten wird das auch nicht klar: Warum steht denn da plötzlich ein Produkt (bzw. dasselbe sich noch ziemlich gut versteckt in der Summe im Exponenten)?
Das ist offenbar einer der unnützen Artikel, die niemand braucht: Entweder weiß man schon, was Sache ist, dann braucht man ihn nicht zu lesen, oder man weiß es nicht, dann erfährt man es aus dem Artikel auch nicht. (Wie ich diese Mathematik-Vorlesungen immer gehaßt habe, in denen man die drei zum Verständnis erforderlichen Sätze immer erst hinterher in der Übung vom Assistenten zu hören gekriegt hatte, anstatt daß sich der Professor mal dazu herabgelassen hätte, die zu äußern und nicht den Schnellschreibwettbewerb mit Tafelkreide gewinnen zu wollen.) --80.171.181.94 22:35, 13. Mär. 2017 (CET)Beantworten

Korrektur[Quelltext bearbeiten]

Hallo,bin gerade auf diesen Artikel gestossen. Die Definition ist falsch:

gilt nur, wenn unabhängig sind... Ich schreibe das einmal um. --Bw234 21:55, 28. Jun. 2011 (CEST)Beantworten

Danke, erledigt. – Rainald62 (Diskussion) 17:39, 18. Okt. 2012 (CEST)Beantworten

Stichprobe[Quelltext bearbeiten]

Das ist eine unnötige Einschränkung. Die könnten auch eine Zeitreihe sein oder völlig heterogene Daten (Geschlecht, Körpergröße, Akzent). Man sollte einfach von Daten sprechen. – Rainald62 (Diskussion) 17:39, 18. Okt. 2012 (CEST)Beantworten

Das ist schwer verständlich. Welche Beziehung sollen den solche Daten zu Modellparametern haben, wenn sie nicht Realisierungen von Zufallsvariablen mit genau der Wahrscheinlichkeitsverteilung sind?--Sigma^2 (Diskussion) 17:49, 29. Okt. 2023 (CET)Beantworten

Beispiel[Quelltext bearbeiten]

Ich finde es ungünstig das die in der Definition angerannte Notation im Beispiel nicht benutzt wird. Definiert ist dann solte es meiner Meinung auch im Beispiel heißen. In den beiden letzten Beispielen taucht x überhaupt nicht mehr als Parameter der Funktion auf. (nicht signierter Beitrag von MrFelix87 (Diskussion | Beiträge) 12:45, 17. Sep. 2013 (CEST))Beantworten

Jetzt besser? --Wrongfilter ... 13:48, 17. Sep. 2013 (CEST)Beantworten

Ja Danke. Ewt fehlt es mir hier auch mathematischen Verständnis, daher will ich das nicht selber ändern, aber warum werden in den Beispielen die Argumente in der Reihenfolge vertauscht und das | Zeichen durch ; ersetzt? Soweit ich das kenne gibt es sowohl | als auch ; wobei der | den Nachteil hat das er leicht mit der bedingten Wahrscheinlichkeit verwechselt werden kann. Aus eigener Erfahrung kann ich allerdings sagen das es schon verwirrend sein kann wenn die Notation ohne erkennbaren Grund geändert wird.(nicht signierter Beitrag von MrFelix87 (Diskussion | Beiträge) 18:34, 18. Sep. 2013 (CEST))Beantworten

(Bitte signieren lernen: einfach vier Tilden tippen, die werden dann automatisch ersetzt). Die Reihenfolge kann man so verstehen: Bei der Likelihood interessiert man sich fuer die Abhaengigkeit von L von den Parametern θ bei einem bestimmten Datensatz x (und insbesondere fuer die Parameterwerte, bei denen L maximal ist). L ist nun definiert als die Wahrscheinlichkeit(sdichte) f von X, demnach versteht man f gewoehnlich als eine Funktion von x bei bestimmten Parameterwerten θ. Mathematisch formal sind die Funktionsargumente x und θ natuerlich gleichberechtigt. Wichtig ist immer zu beachten, dass L als Funktion von x normiert ist, nicht aber als Funktion von θ. Dass in der Definition weiter oben "|" und ";" unterschiedlich verwendet werden faellt mir erst jetzt auf. Ich weiss nicht, ob da ein tieferer Sinn dahintersteckt. --Wrongfilter ... 18:55, 18. Sep. 2013 (CEST)Beantworten

Notation[Quelltext bearbeiten]

M.E. verwendet der Artikel nicht die übliche Notation für die unterschiedlichen Funktionen: Die nach meiner Einschätzung häufigste Variante für die Likelihood-Funktion ist bzw. , für die log-Likelihood und für die Scorefunktion ein kleines nicht großes S.--Jonski (Diskussion) 13:25, 22. Jun. 2019 (CEST)Beantworten

Marginal Likelihood, Partial Likelihood, Profile Likelihood[Quelltext bearbeiten]

Wäre toll etwas darüber zu lesen https://stats.stackexchange.com/questions/622/what-is-the-difference-between-a-partial-likelihood-profile-likelihood-and-marg biggerj1 (Diskussion) 14:33, 21. Aug. 2023 (CEST)Beantworten

Scorefunktion[Quelltext bearbeiten]

Der Abschnitt ist stark überarbeitungsbedürftig.

  • Die Scorefunktion wird erst als bezeichnet, dann im Beispiel als , wobei eine suffiziente Statistik ist, und dann als , wobei ein Parameter ist. Das passt alles nicht zusammen.
  • Im Unterabschnitt wird der Begriff Fisher-Information unverträglich mit der verlinkten Begriffsbildung verwendet. Der Begriff erwartete Fisher-Information (Rotlink) ist seltsam, da die Fisher-Information in üblicher Definition ein Erwartungswert ist.
  • Das Symbol ist nicht erklärt.
  • Welche Zufallsvariable gemeint ist wird nicht klar, da weder noch als Zufallsvariablen definiert oder erklärt sind.
  • Möglicherweise liegt eine ungeeignete Quelle zugrunde. Das referenzierte Buch von Held/Bovè ist mir zurzeit nicht zugänglich. In der Beschreibung heißen die ersten drei Worte „Offers a non-technical introduction ...“. Das ist eine klare Selbstaussage über die Nichteignung als Referenz für technische Sachverhalte.

--Sigma^2 (Diskussion) 11:41, 29. Okt. 2023 (CET)Beantworten