Bayessche Statistik

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Racine carrée bleue.svg
Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen.

Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion! (Artikel eintragen)

Unter Bayesscher Statistik versteht man einen besonderen Zweig der modernen Statistik, der drei Besonderheiten aufweist:

  1. Die Wahrscheinlichkeit ist in der Bayesschen Statistik eine Aussage über die Plausibilität des Eintretens eines Ereignisses. Dagegen wird in der traditionellen Statistik die Wahrscheinlichkeit als Sicherheit bzw. Unsicherheit über das Eintreten eines Ereignisses eines Zufallsexperimentes definiert. Daher ist in der Bayesschen Statistik kein Zufallsexperiment als Grundlage notwendig.
  2. In der Bayesschen Statistik werden immer bedingte Wahrscheinlichkeiten P(A|B) betrachtet, d. h., wie wahrscheinlich (plausibel) ist es, dass Aussage A eintritt, wenn B eingetreten ist (Vorwissen vorliegt). Die Berechnung erfolgt mit Hilfe des Satzes von Bayes für drei Aussagen:
    • A: Aussage über ein unbekanntes Phänomen,
    • B: Aussage über das unbekannte Phänomen und
    • C: Aussage über zusätzliches Wissen.
    P(A|B\cap C) =\frac{P(B|A\cap C)P(A|C)}{P (B|C)}
    dabei wird
    In der Praxis wird die a-posteriori-Wahrscheinlichkeit oft mittels Monte-Carlo-Simulationen berechnet.
  3. Unbekannte Parameter sind nicht fix, sondern selbst Zufallsvariablen. Das schließt nicht aus, dass sie konstant sind.

Beispiele[Bearbeiten]

Beispiel von Laplace[Bearbeiten]

Laplace hat das Theorem von Thomas Bayes erneut abgeleitet und eingesetzt um die Masse des Saturn und anderer Planeten einzugrenzen:

  • A: Masse von Saturn liegt in bestimmtem Intervall,
  • B: Daten von Observatorien über gegenseitige Störungen von Jupiter und Saturn und
  • C: die Masse des Saturns darf nicht so klein sein, dass er seine Ringe verliert, noch so groß, dass er das Sonnensystem zerstört.
Schätzung der Saturnmasse als Anteil der Gesamtmasse der Sonne
Laplace (1814) 3512,0
NASA (2004) 3499,1
\frac{3512{,}0-3499{,}1}{3499{,}1}=0{,}0037<0{,}01

„Pour en donner quelques applications intéressantes, j’ai profité de l’immense travail que M. Bouvard vient de terminer sur les mouvemens de Jupiter et de Saturne, dont il a construit des tables très précises. Il a discuté avec le plus grand soin les oppositions et les quadratures de ces deux planètes, observées par Bradley et par les astronomes qui l’ont suivi jusqu’à ces dernières années ; il en a conclu les corrections des élémens de leur mouvement et leurs masses comparées à celle du Soleil, prise pour unité. Ses calculs lui donnent la masse de Saturne égale à la 3512e partie de celle du Soleil. En leur appliquant mes formules de probabilité, je trouve qu’il y a onze mille à parier contre un, que l’erreur de ce résultat n’est pas un centième de sa valeur, ou, ce qui revient à très peu près au même, qu’après un siècle de nouvelles observations ajoutées aux précédentes, et discutées de la même manière, le nouveau résultat ne différera pas d’un centième de celui de M. Bouvard.“

Pierre-Simon Laplace[1]

Übersetzung: „Um einige interessante Anwendungen davon zu nennen, habe ich von der gewaltigen Arbeit profitiert, die M. Bouvard gerade über die Bewegungen von Jupiter und Saturn beendet und von denen er sehr präzise Tabellen erstellt hat. Er hat mit größter Sorgfalt die Oppositionen und Quadraturen dieser beiden Planeten diskutiert, die von Bradley und den Astronomen, die ihn in den letzten Jahre begleitet haben, beobachtet wurden; er schloss auf die Korrekturen der Elemente ihrer Bewegung und ihrer Massen im Vergleich zur Sonne, die als Referenz verwendet wurde. Seinen Berechnungen zufolge beträgt die Saturnmasse den 3512ten Teil der Sonnenmasse. Meine Formeln der Wahrscheinlichkeitsrechnung auf diese angewandt, komme ich zu dem Schluss, dass die Chancen 11000 zu 1 stehen, dass der Fehler dieses Ergebnisses nicht ein Hundertstel seines Wertes ist, oder, was das Gleiche bedeutet, dass auch nach einem Jahrhundert mit neuen Beobachtungen, zusätzlich zu den bereits existierenden, das neue Ergebnis nicht mehr als ein Hundertstel von dem von M. Bouvard abweichen wird, sofern sie auf die gleiche Weise durchgeführt werden.“

Anwendung in der Testtheorie[Bearbeiten]

Die Attraktivität der Bayesschen Statistik kann man z. B. bei Hypothesentests sehen. Wenn E die beobachtete Aussage ist und H0 die Nullhypothese, dann wird mit der traditionellen Statistik die Wahrscheinlichkeit P(E|H0) berechnet; also wie wahrscheinlich ist es E zu beobachten, wenn die Nullhypothese wahr ist. Ist diese zu klein (kleiner als das vorgegebene Signifikanzniveau), dann wird die Nullhypothese verworfen.

Eigentlich will man jedoch eher wissen, wie wahrscheinlich ist es, dass die Nullhypothese gilt, wenn man das Ereignis E beobachtet hat. Mit Hilfe der Formel von Bayes kann dies berechnet werden

P(H_0|E) = \frac{P(E|H_0)\;P(H_0)}{P(E)}

mit

Ableitung[Bearbeiten]

Im Artikel von Cox (1946) werden drei Postulate genannt, aus denen die Bayessche Statistik abgeleitet wird:[2]

  1. Die Plausibilität einer Aussage ist eine reelle Zahl und abhängig von den Informationen, die man im Zusammenhang mit der Aussage (divisibility and comparability) hat.
  2. Bei der Beurteilung der Plausibilitäten eines Modells sollte diese sich in einem sinnvollen Rahmen bewegen (common sense).
  3. Wenn die Plausibilität einer Aussage in verschiedener Weise abgeleitet wird, dann sollte das Ergebnis in allen Fällen dasselbe sein (consistency).

Daraus lassen sich die mathematischen Grundlagen der Bayessche Statistik ableiten:

  1. P(A\cap B|C) = P (A|C)P (B|A\cap C) = P (B|C)P (A|B\cap C)
  2. P(S|C) = 1\,
  3. P (A|C) + P (\bar{A}|C) = 1

mit A, B, C beliebige Aussagen, S die sichere Aussage und \bar{A} die Negation der Aussage A.

Einzelnachweise[Bearbeiten]

  1.  Pierre-Simon De Laplace: Essai philosophique sur les probabilités. Dover, 1840, S. 91-134 (Wikisource, abgerufen am 26 Jun. 2013, Version von 1840).
  2.  R. T. Cox: Probability, Frequency and Reasonable Expectation. In: American Journal of Physics. 14, Nr. 1, 1946, S. 1–13, doi:10.1119/1.1990764.

Literatur[Bearbeiten]

  •  Leonhard Held: Methoden der statistischen Inferenz. Likelihood und Bayes. Spektrum Akademischer Verlag, Heidelberg 2008, ISBN 978-3-8274-1939-2.
  •  Rudolf Koch: Einführung in die Bayes-Statistik. Springer, Berlin/Heidelberg 21. Januar 2000, ISBN 3-540-66670-2.
  •  Peter M. Lee: Bayesian Statistics. An Introduction. 4. Auflage. Wiley, New York 2012, ISBN 978-1-118-33257-3.