Bayessche Statistik

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Racine carrée bleue.svg
Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen.

Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion! (Artikel eintragen)

Unter Bayesscher Statistik versteht man einen besonderen Zweig der modernen Statistik, in der die Wahrscheinlichkeiten als „Grad vernünftiger Erwartung“ interpretiert werden,[1] also als Maß für die Glaubwürdigkeit einer Aussage von 0 (falsch, unglaubwürdig) bis 1 (glaubwürdig, wahr). Diese Interpretation von Wahrscheinlichkeiten und Statistik unterscheidet sich fundamental von der Betrachtung in der konventionellen Statistik in der unendlich oft wiederholbare Zufallsexperimente unter dem Gesichtspunkt betrachtet werden, ob eine Hypothese wahr oder falsch ist.

Bayessche Wahrscheinlichkeiten P(A) beziehen sich auf eine Aussage A. In der Logik können Aussagen entweder WAHR (oft mit Wert 1 wiedergegeben) oder FALSCH (Wert 0) sein. Der Bayessche Wahrscheinlichkeitsbegriff erlaubt nun Zwischenstufen zwischen den Extremen, eine Wahrscheinlichkeit von 0,25 gibt z. B. wieder, dass eine Tendenz besteht, dass die Aussage falsch sein könnte, aber keine Gewissheit besteht. Zudem ist es möglich, ähnlich der klassischen Aussagenlogik, aus elementaren Wahrscheinlichkeiten und Aussagen komplexere Wahrscheinlichkeiten zu bestimmen. Damit ermöglicht die Bayessche Statistik Schlussfolgerungen und die Behandlung von komplexen Fragestellungen.

Im Rahmen der Bayesschen Wahrscheinlichkeitsrechnung können betrachtet werden

  • gemeinsame Wahrscheinlichkeiten P(A,B), also: Wie wahrscheinlich ist es, dass sowohl A als auch B wahr ist? Wie wahrscheinlich ist es beispielsweise, dass meine Schuhe auf einem Spaziergang trocken sind und dass es zeitgleich regnet.
  • bedingte Wahrscheinlichkeiten P(A|B), also: Wie wahrscheinlich ist es, dass A wahr ist, wenn gegeben ist, dass B wahr ist. Wie wahrscheinlich ist es beispielsweise, dass meine Schuhe nach einem Spaziergang im Freien nass sind, wenn es momentan regnet.

Grundlage für die Bayessche Statistik ist zudem der Satzes von Bayes, welcher direkt aus einfachen Wahrscheinlichkeitsbetrachtungen hervorgeht.[2] Mit dem Satz von Bayes kann eine bedingte Wahrscheinlichkeit P(A|B) (sprich Wahrscheinlichkeit für A, gegeben B) als \frac{p(B|A)p(A)}{p(B)} ausgedrückt werden.[3]

Dabei haben die einzelnen Wahrscheinlichkeiten eine feste Bezeichnung.

Die A-priori-Wahrscheinlichkeit enthält Annahmen und Vorwissen über die betrachtete Variable, die Modell-Wahrscheinlichkeit enthält hinzugekommenes Wissen und die A-posteriori-Wahrscheinlichkeit enthält die Schlussfolgerungen der Bayesschen Logik.

Beispiele[Bearbeiten]

Beispiel von Laplace[Bearbeiten]

Laplace hat das Theorem von Thomas Bayes erneut abgeleitet und eingesetzt, um die Masse des Saturn und anderer Planeten einzugrenzen:

  • A: Masse von Saturn liegt in bestimmtem Intervall,
  • B: Daten von Observatorien über gegenseitige Störungen von Jupiter und Saturn und
  • C: die Masse des Saturns darf nicht so klein sein, dass er seine Ringe verliert, noch so groß, dass er das Sonnensystem zerstört.
Schätzung der Saturnmasse als Anteil der Gesamtmasse der Sonne
Laplace (1814) 3512,0
NASA (2004) 3499,1
\frac{3512{,}0-3499{,}1}{3499{,}1}=0{,}0037<0{,}01

„Pour en donner quelques applications intéressantes, j’ai profité de l’immense travail que M. Bouvard vient de terminer sur les mouvemens de Jupiter et de Saturne, dont il a construit des tables très précises. Il a discuté avec le plus grand soin les oppositions et les quadratures de ces deux planètes, observées par Bradley et par les astronomes qui l’ont suivi jusqu’à ces dernières années ; il en a conclu les corrections des élémens de leur mouvement et leurs masses comparées à celle du Soleil, prise pour unité. Ses calculs lui donnent la masse de Saturne égale à la 3512e partie de celle du Soleil. En leur appliquant mes formules de probabilité, je trouve qu’il y a onze mille à parier contre un, que l’erreur de ce résultat n’est pas un centième de sa valeur, ou, ce qui revient à très peu près au même, qu’après un siècle de nouvelles observations ajoutées aux précédentes, et discutées de la même manière, le nouveau résultat ne différera pas d’un centième de celui de M. Bouvard.“

Pierre-Simon Laplace[4]

Übersetzung: „Um einige interessante Anwendungen davon zu nennen, habe ich von der gewaltigen Arbeit profitiert, die M. Bouvard gerade über die Bewegungen von Jupiter und Saturn beendet und von denen er sehr präzise Tabellen erstellt hat. Er hat mit größter Sorgfalt die Oppositionen und Quadraturen dieser beiden Planeten diskutiert, die von Bradley und den Astronomen, die ihn in den letzten Jahre begleitet haben, beobachtet wurden; er schloss auf die Korrekturen der Elemente ihrer Bewegung und ihrer Massen im Vergleich zur Sonne, die als Referenz verwendet wurde. Seinen Berechnungen zufolge beträgt die Saturnmasse den 3512ten Teil der Sonnenmasse. Meine Formeln der Wahrscheinlichkeitsrechnung auf diese angewandt, komme ich zu dem Schluss, dass die Chancen 11000 zu 1 stehen, dass der Fehler dieses Ergebnisses nicht ein Hundertstel seines Wertes ist, oder, was das Gleiche bedeutet, dass auch nach einem Jahrhundert mit neuen Beobachtungen, zusätzlich zu den bereits existierenden, das neue Ergebnis nicht mehr als ein Hundertstel von dem von M. Bouvard abweichen wird, sofern sie auf die gleiche Weise durchgeführt werden.“

Anwendung in der Testtheorie[Bearbeiten]

Die Attraktivität der Bayesschen Statistik kann man z. B. bei Hypothesentests sehen. Wenn E die beobachtete Aussage ist und H0 die Nullhypothese, dann wird mit der traditionellen Statistik die Wahrscheinlichkeit P(E|H0) berechnet; also, wie wahrscheinlich ist es, E zu beobachten, wenn die Nullhypothese wahr ist. Ist diese zu klein (kleiner als das vorgegebene Signifikanzniveau), wird die Nullhypothese verworfen.

Eigentlich will man jedoch eher wissen, wie wahrscheinlich es ist, dass die Nullhypothese dann gilt, wenn man das Ereignis E beobachtet hat. Dies kann mit Hilfe der Formel von Bayes berechnet werden

P(H_0|E) = \frac{P(E|H_0)\;P(H_0)}{P(E)}

mit

Ableitung[Bearbeiten]

Im Artikel von Cox (1946) werden drei Postulate genannt, aus denen die Bayessche Statistik abgeleitet wird:[5]

  1. Die Plausibilität einer Aussage ist eine reelle Zahl und abhängig von den Informationen, die man im Zusammenhang mit der Aussage (divisibility and comparability) hat.
  2. Bei der Beurteilung der Plausibilitäten eines Modells sollte diese sich in einem sinnvollen Rahmen bewegen (common sense).
  3. Wenn die Plausibilität einer Aussage in verschiedener Weise abgeleitet wird, dann sollte das Ergebnis in allen Fällen dasselbe sein (consistency).

Daraus lassen sich die mathematischen Grundlagen der Bayessche Statistik ableiten:

  1. P(A\cap B|C) = P (A|C)P (B|A\cap C) = P (B|C)P (A|B\cap C)
  2. P(S|C) = 1\,
  3. P (A|C) + P (\bar{A}|C) = 1

mit A, B, C beliebige Aussagen, S die sichere Aussage und \bar{A} die Negation der Aussage A.

Einzelnachweise[Bearbeiten]

  1. R.T. Cox: "Probability, Frequency and Reasonable Expectation", Am. J. Phys. 14, 1 (1946); http://dx.doi.org/10.1119/1.1990764
  2. R.T. Cox: "Probability, Frequency and Reasonable Expectation", Am. J. Phys. 14, 1 (1946); http://dx.doi.org/10.1119/1.1990764
  3. C.M. Bishop. "Pattern Recognition and Machine Learning", Springer
  4.  Pierre-Simon De Laplace: Essai philosophique sur les probabilités. Dover, 1840, S. 91-134 (Wikisource, abgerufen am 26 Jun. 2013, Version von 1840).
  5.  R. T. Cox: Probability, Frequency and Reasonable Expectation. In: American Journal of Physics. 14, Nr. 1, 1946, S. 1–13, doi:10.1119/1.1990764.

Literatur[Bearbeiten]

  •  Leonhard Held: Methoden der statistischen Inferenz. Likelihood und Bayes. Spektrum Akademischer Verlag, Heidelberg 2008, ISBN 978-3-8274-1939-2.
  •  Rudolf Koch: Einführung in die Bayes-Statistik. Springer, Berlin/Heidelberg 21. Januar 2000, ISBN 3-540-66670-2.
  •  Peter M. Lee: Bayesian Statistics. An Introduction. 4. Auflage. Wiley, New York 2012, ISBN 978-1-118-33257-3.