Poisson-Verteilung

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Wahrscheinlichkeitsfunktion der Poisson-Verteilung für \lambda \in \{1, 5, 9\}

Die Poisson-Verteilung (benannt nach dem Mathematiker Siméon Denis Poisson) ist eine diskrete Wahrscheinlichkeitsverteilung, mit der die Anzahl von Ereignissen modelliert werden kann, die mit konstanter Rate und unabhängig voneinander in einem festen Zeitintervall oder räumlichen Gebiet eintreten. Sie stellt einen häufig vorkommenden Grenzwert der Binomialverteilung für unendlich viele Versuche dar, lässt sich aber auch aus grundlegenden Prozesseigenschaften axiomatisch herleiten.

Die Zuwächse eines Poisson-Prozesses sind Poisson-verteilte Zufallsvariablen. Erweiterungen der Poisson-Verteilung wie die Verallgemeinerte Poisson-Verteilung und die Gemischte Poisson-Verteilung werden vor allem im Bereich der Versicherungsmathematik angewendet.

Definition[Bearbeiten]

Die Poisson-Verteilung P_\lambda ist eine diskrete Wahrscheinlichkeitsverteilung, die durch einen reellen Parameter \lambda > 0 bestimmt wird, der gleichzeitig den Erwartungswert und Varianz der Verteilung darstellt. Sie ordnet den natürlichen Zahlen  k = 0, 1, 2, \dotsc die Wahrscheinlichkeiten

P_\lambda (k) = \frac{\lambda^k}{k!}\, \mathrm{e}^{-\lambda}

zu, wobei \mathrm{e} die eulersche Zahl und k! die Fakultät von k bezeichnet. Der Parameter \lambda beschreibt anschaulich die erwartete Ereignishäufigkeit innerhalb eines gegebenen Beobachtungszeitraums. Die Poisson-Verteilung gibt dann die Wahrscheinlichkeit des Eintretens einer bestimmten Anzahl k von Ereignissen innerhalb dieses Zeitraums an, wenn bekannt ist, wie viele Ereignisse \lambda im Mittel innerhalb des Zeitraums zu erwarten sind.

Eigenschaften[Bearbeiten]

Verteilungsfunktion[Bearbeiten]

Die Verteilungsfunktion F_{\lambda} der Poisson-Verteilung ist

F_{\lambda}(n)=\sum_{k=0}^n P_\lambda (k) = \mathrm{e}^{-\lambda} \sum_{k=0}^n \frac{\lambda^k}{k!} = Q(n+1,\lambda)=p

und gibt die Wahrscheinlichkeit p dafür an, höchstens n Ereignisse zu finden, wo man \lambda im Mittel erwartet. Dabei bezeichnet Q(a,x) die regularisierte Gammafunktion der unteren Grenze.

Erwartungswert, Varianz, Moment[Bearbeiten]

Ist die Zufallsvariable X Poisson-verteilt, also X\sim P_{\lambda}, so ist \lambda zugleich Erwartungswert und Varianz, denn es gilt

\operatorname{E}(X) =\sum_{k=0}^{\infty}k\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}
              =  \lambda\, \mathrm{e}^{-\lambda}\sum_{k=1}^{\infty}\frac{\lambda^{k-1}}{(k-1)!}
              =  \lambda\, \mathrm{e}^{-\lambda}\underbrace{\sum_{j=0}^{\infty}\frac{\lambda^{j}}{j!}}_{e^\lambda} 
              = \lambda

sowie

\begin{align}\operatorname{E}(X^2) &=\sum_{k=0}^\infty k^2\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}= \mathrm{e}^{-\lambda}\,\sum_{k=1}^\infty k\frac{\lambda^k}{(k-1)!} = \mathrm{e}^{-\lambda}\,\left ( \sum_{k=1}^\infty (k-1)\frac{\lambda^k}{(k-1)!} + \sum_{k=1}^\infty \frac{\lambda^k}{(k-1)!} \right )\\
 &= \mathrm{e}^{-\lambda}\,\sum_{k=2}^\infty \frac{\lambda^k}{(k-2)!} + \mathrm{e}^{-\lambda}\,\sum_{k=1}^\infty \frac{\lambda^k}{(k-1)!}
 =\lambda^2\cdot\mathrm{e}^{-\lambda}\,\sum_{k=2}^\infty \frac{\lambda^{k-2}}{(k-2)!}+\lambda\cdot\mathrm{e}^{-\lambda}\,\sum_{k=1}^\infty \frac{\lambda^{k-1}}{(k-1)!}= \lambda^2+\lambda.
\end{align}

Nach der Verschiebungsformel folgt nun:

\operatorname{Var}(X) = \operatorname{E}(X^2)-\operatorname{E}(X)^2=\lambda^2+\lambda-\lambda^2=\lambda.

Auch für das dritte zentrierte Moment gilt \operatorname{E}\left(\left(X-\operatorname{E}\left(X\right)\right)^3\right) = \lambda.

Median[Bearbeiten]

Es liegt die Vermutung nahe, dass der Median n_\text{median} nahe bei \lambda liegt. Eine exakte Formel existiert jedoch nicht, die genauest mögliche Abschätzung ist [1]

 \lambda - \ln 2 \le n_\text{median}< \lambda + \frac{1}{3}.

Variationskoeffizient[Bearbeiten]

Aus Erwartungswert und Varianz erhält man sofort den Variationskoeffizienten

\operatorname{VarK}(X) = \frac{\sqrt{\operatorname{Var}(X)}}{\operatorname{E}(X)} = \frac{1}{\sqrt{\lambda}}.

Schiefe und Wölbung[Bearbeiten]

Die Schiefe ergibt sich zu

\operatorname{v}(X) = \frac{1}{\sqrt{\lambda}}.

Die Wölbung lässt sich ebenfalls geschlossen darstellen als

\beta_2 =3+\frac{1}{\lambda}.

Höhere Momente[Bearbeiten]

Das k-te Moment lässt sich als Polynom von Grad k in  \lambda angeben und ist das k-te vollständige Bell-Polynom  B_k ausgewertet an den k Stellen  \lambda [2]:

m_k=B_k(\lambda, \dots, \lambda) .

Kumulanten[Bearbeiten]

Die kumulantenerzeugende Funktion der Poisson-Verteilung ist

 g_X(t)=\lambda(e^t-1) .

Damit sind alle Kumulanten gleich  \kappa_i=\lambda

Charakteristische Funktion[Bearbeiten]

Die charakteristische Funktion hat die Form

\phi_{X}(s) = \sum_{k=0}^\infty\mathrm{e}^{iks}\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}
               = \mathrm{e}^{-\lambda} \sum_{k=0}^\infty\frac{\left(\lambda\, \mathrm{e}^{is}\right)^k}{k!}
               = \mathrm{e}^{-\lambda} \mathrm{e}^{\lambda\,\mathrm{e}^{is}}
               = \mathrm{e}^{\lambda\left(\mathrm{e}^{is}-1\right)}.

Wahrscheinlichkeitserzeugende Funktion[Bearbeiten]

Für die wahrscheinlichkeitserzeugende Funktion erhält man

m_{X}(s) = \mathrm{e}^{\lambda(s-1)}.

Momenterzeugende Funktion[Bearbeiten]

Die momenterzeugende Funktion der Poisson-Verteilung ist

M_{X}(s) = \mathrm{e}^{\lambda(\mathrm{e}^{s}-1)}.

Reproduktivität[Bearbeiten]

Die Poisson-Verteilung ist reproduktiv, d. h. die Summe X_1+X_2+ \dotsb +X_n stochastisch unabhängiger Poisson-verteilter Zufallsvariabler X_1, X_2,  \dotsc, X_n mit den Parametern \lambda_1,\lambda_2, \dotsc, \lambda_n ist wieder Poisson-verteilt mit dem Parameter \lambda_1 + \lambda_2 + \dotsb + \lambda_n. Dieses Ergebnis folgt unmittelbar aus der charakteristischen Funktion der Poisson-Verteilung und der Tatsache, dass die charakteristische Funktion einer Summe unabhängiger Zufallsvariablen das Produkt der charakteristischen Funktionen ist.

Die Poisson-Verteilung ist also unendlich teilbar. Nach einem Satz des sowjetischen Mathematikers D. A. Raikow gilt auch die Umkehrung: Ist eine Poisson-verteilte Zufallsvariable X die Summe von zwei unabhängigen Zufallsvariablen X_1 und X_2, dann sind die Summanden X_1 und X_2 ebenfalls Poisson-verteilt. Eine Poisson-verteilte Zufallsvariable lässt sich also nur in Poisson-verteilte unabhängige Summanden zerlegen. Dieser Satz ist ein Analogon zu dem Satz von Cramér für die Normalverteilung.

Ausdünnung[Bearbeiten]

Häufig kommen stochastische Experimente vor, bei denen die Ereignisse eigentlich Poisson-verteilt sind, aber die Zählung nur erfolgt, wenn noch eine zusätzliche Bedingung erfüllt ist. Z. B. könnte die Anzahl der Eier, die ein Insekt legt, Poisson-verteilt sein, aber aus jedem Ei schlüpft nur mit einer bestimmten Wahrscheinlichkeit eine Larve. Ein Beobachter dieser Poisson-verteilten Zufallsvariable mit Parameter  \lambda zählt jedes Ereignis also nur mit einer Wahrscheinlichkeit p < 1 (unabhängig voneinander).

Alternativ könnte aber auch ein Fehler bei der Zählung dazu führen, dass das Ereignis nicht registriert wird. Wenn also ursprünglich n Ereignisse vorliegen, werden entsprechend der Binomial-Verteilung B_{n,p}(r) nur r Ereignisse gezählt. In diesem Fall ist der wahre Wert n unbekannt und variiert zwischen dem gemessenen Wert r (alle vorhandenen Ereignisse gesehen) und unendlich (es gab mehr Ereignisse, als gesehen wurden). Die Wahrscheinlichkeit eines Messwertes r findet man dann mittels des Produktes der Wahrscheinlichkeit einer erfolgreichen Messung B_{n,p}(r) und der ursprünglichen Poisson-Verteilung  P_\lambda(n) , summiert über alle möglichen Werte n:

\sum\limits_{n=r}^\infty B_{n,p}(r) P_\lambda(n) = P_{p\lambda}(r).

Die gefundenen Werte r bei Nachweiswahrscheinlichkeit p sind also wieder Poisson-verteilt. Die Nachweiswahrscheinlichkeit p reduziert den Parameter  \lambda der ursprünglichen Poisson-Verteilung zu  p\lambda . Dies bezeichnet man auch als Ausdünnung der Poisson-Verteilung.

Berechnung[Bearbeiten]

Die Berechnung von P_\lambda (k) kann folgendermaßen rekursiv erfolgen. Zuerst bestimmt man P_\lambda (0)=\mathrm{e}^{-\lambda}, dann ergeben sich nacheinander P_\lambda(k)=\tfrac{\lambda}{k}\cdot P_\lambda (k-1), (k=1,2,3,\dotsc). Mit wachsendem k werden dabei die Wahrscheinlichkeiten größer, solange k<\lambda ist. Wird k>\lambda, schrumpfen sie. Der Modus, also der Wert mit der größten Wahrscheinlichkeit, beträgt k_\mathrm{Modus} =\lfloor \lambda \rfloor, wenn \lambda nicht ganzzahlig ist, anderenfalls gibt es zwei benachbarte k_\text{Modus} = \lambda,\lambda -1 (siehe Diagramm rechts oben).

Falls die Berechnung von  \frac{\lambda^k}{k!}\, \mathrm{e}^{-\lambda} wegen zu großer Werte von \lambda und k Probleme bereitet, dann kann folgende mit der Stirlingformel erhaltene Näherung weiterhelfen:

\frac{\mathrm{e}^{k(1+\ln(\lambda/k))-\lambda}}{\sqrt{2\pi(k+1/6)}} .

Poisson-verteilte Zufallszahlen werden üblicherweise mit Hilfe der Inversionsmethode erzeugt.

Parameterschätzung[Bearbeiten]

Maximum-Likelihood-Schätzer[Bearbeiten]

Aus eine Stichprobe von N Beobachtungen n_i = 0,1,2,\dotsc für i = 1,\dotsc,N soll der Parameter \lambda der Poisson-verteilten Grundgesamtheit geschätzt werden. Der Maximum-Likelihood-Schätzer ist gegeben durch das arithmetische Mittel

\widehat{\lambda}=\frac{1}{N}\sum_{i=1}^N n_i.

Der Maximum-Likelihood-Schätzer ist ein unverzerrter, effizienter und suffizienter Schätzer für den Parameter \lambda.

Konfidenzintervall[Bearbeiten]

Das Konfidenzintervall für \lambda erhält man aus der Beziehung zwischen Poisson- und Chi-Quadrat-Verteilung. Liegt ein Stichprobenwert n vor, dann ist ein Konfidenzintervall für \lambda zum Konfidenzniveau 1-\alpha gegeben durch

\tfrac 12\chi^{2}(\alpha/2; 2n) \le \lambda \le \tfrac 12 \chi^{2}(1-\alpha/2; 2n+2),

wobei \chi^{2}(p;i) die Quantilfunktion der Chi-Quadrat-Verteilung mit i Freiheitsgraden bezeichnet.

Prognoseintervall[Bearbeiten]

Das Prognoseintervall hat die Aufgabe, vor dem Ziehen einer Stichprobe einen Bereich vorherzusagen, in dem man die Realisierung einer Schätzfunktion mit hoher Wahrscheinlichkeit findet. Die Anzahl n_\text{up} Poisson-verteilter Ereignisse, die mit vorgegebener Wahrscheinlichkeit p < 1 nicht überschritten wird, lässt sich aus der Inversion der Verteilungsfunktion berechnen:

n_\text{up} = F_{\lambda}^{-1}(p).

Dabei lässt sich wieder F_{\lambda}(n)=p durch die regularisierte Gammafunktion Q(n+1,\lambda)=p ausdrücken. Dies ist hilfreich, da keine elementare Form der Inversion der Verteilungsfunktion F_{\lambda} bekannt ist.

Beziehung zu anderen Verteilungen[Bearbeiten]

Beziehung zur Binomialverteilung[Bearbeiten]

Hauptartikel: Poisson-Approximation

Ebenso wie die Binomialverteilung sagt die Poisson-Verteilung das zu erwartende Ergebnis einer Serie von Bernoulli-Experimenten voraus. Letzteres sind Zufallsexperimente, die nur zwei mögliche Ergebnisse kennen (zum Beispiel „Erfolg“ und „Misserfolg“), also einen dichotomen Ereignisraum besitzen. Wird das zeitliche oder räumliche Beobachtungsintervall immer weiter unterteilt, erhöht sich damit die Zahl der Versuche ( n \to \infty ). Die fortschreitende Unterteilung bedingt eine Abnahme der Erfolgswahrscheinlichkeit ( p \to 0 ) derart, dass das Produkt n \cdot p gegen einen endlichen Grenzwert \lambda konvergiert. Dementsprechend nähert sich die binomiale Wahrscheinlichkeitsverteilung der mathematisch etwas einfacheren Poisson-Verteilung an.

Die Poisson-Verteilung lässt sich aus der Binomialverteilung herleiten. Sie ist die Grenzverteilung der Binomialverteilung bei sehr kleinen Anteilen der interessierenden Merkmale und sehr großem Stichprobenumfang: n\rightarrow\infty und p\rightarrow 0 unter der Nebenbedingung, dass das Produkt np=\lambda einen Wert annimmt, der weder null noch unendlich ist. \lambda ist dann für alle in der Grenzwertbildung betrachteten Binomialverteilungen wie auch für die resultierende Poisson-Verteilung der Erwartungswert.

Sowohl die Poisson-Verteilung, als auch die Binomialverteilung sind Spezialfälle der Panjer-Verteilung.

Beziehung zur verallgemeinerten Binomialverteilung[Bearbeiten]

Auch die verallgemeinerte Binomialverteilung kann für große Stichproben und kleine Erfolgswahrscheinlichkeiten mittels der Poisson-Approximation angenährt werden.

Beziehung zur Normalverteilung[Bearbeiten]

Die Poisson-Verteilung P_{\lambda} hat für kleine Werte von \lambda eine stark asymmetrische Gestalt. Für größer werdendes \lambda wird P_{\lambda} symmetrischer und ähnelt ab etwa \lambda=30 einer gaußschen Normalverteilung mit \mu=\lambda und \sigma^2=\lambda:

P_{\lambda}(k) \approx \frac {1}{\sqrt{2\pi\lambda}}\exp\left(-\frac{(k-\lambda)^2}{2\lambda}\right).

Beziehung zur Erlang-Verteilung[Bearbeiten]

  • In einem Poisson-Prozess genügt die zufällige Anzahl der Ereignisse in einem festgelegten Intervall der Poisson-Verteilung P_{\lambda}. Der zufällige Abstand (Strecke oder Zeit) bis zum Eintreffen des n-ten Ereignisses sowie der Abstand zwischen den Ereignissen m und m+n sind hingegen \operatorname{Erl}(g,n) Erlang-verteilt. Man sagt auch, dass die Poisson-Verteilung und die Erlang-Verteilung zueinander konjugierte Verteilungen sind. Im Fall n=1 geht diese Erlang-Verteilung in eine Exponentialverteilung über \operatorname{Erl}(g,1)=\operatorname{Exp}(g). Dabei bezeichnet g die Zahl der erwarteten Ereignisse pro Einheitsintervall. g\, \mathrm{e}^{-g x} ist dann die Verteilungsdichte des Abstands x, der bis zum Eintreffen des nächsten Ereignisses vergehen wird, wie auch des Abstandes zwischen zwei aufeinanderfolgen Ereignissen.
  • Für die Verteilungsfunktionen der Erlang-Verteilung und der Poisson-Verteilung gilt
F_{\text{Erlang}}(n+1) + F_{\text{Poisson}}(n) = 1.

Beziehung zur Chi-Quadrat-Verteilung[Bearbeiten]

Die Verteilungsfunktionen der Poisson-Verteilung F_{\lambda}und der Chi-Quadrat-Verteilung mit m Freiheitsgraden F_m hängen auf folgende Weise zusammen:

Die Wahrscheinlichkeit, n oder mehr Ereignisse in einem Intervall zu finden, innerhalb dessen man im Mittel \lambda Ereignisse erwartet, ist gleich der Wahrscheinlichkeit, dass der Wert von \chi_{2n}^2\leq 2\lambda ist. Es gilt also

1-F_{\lambda}(n-1)=F_{2n}(2\lambda).

Dies folgt aus 1 - Q(n, \lambda ) = P(n, \lambda ) mit P und Q als regularisierte Gammafunktionen.

Beziehung zur Skellam-Verteilung[Bearbeiten]

Dagegen ist die Differenz X_1-X_2 zweier stochastisch unabhängiger Poisson-verteilter Zufallsvariablen X_1 und X_2 mit den Parametern \lambda_1 und \lambda_2 nicht wieder Poisson-verteilt, sondern Skellam-verteilt.[3] Es gilt:


  P_{\lambda_1,\lambda_2}(X_1-X_2=k)= e^{-(\lambda_1+\lambda_2)}
  \left(\frac{\lambda_1}{\lambda_2}\right)^{k/2}I_{k}(2\sqrt{\lambda_1\lambda_2})
,

wobei  I_k(z) die modifizierte Bessel-Funktion bezeichnet.

Weitere Poisson-Verteilungen[Bearbeiten]

Einige weitere Verteilungen tragen teilweise den Namen „Poisson“ und sind Verallgemeinerungen der hier beschriebenen Poisson-Verteilung:

Bivariate Poisson-Verteilung[Bearbeiten]

Die bivariate Poisson-Verteilung[4] wird definiert durch


P(X_1=k_1,X_2=k_2) 
=  \exp\left(-\lambda_1-\lambda_2-\lambda_3\right) \frac{\lambda_1^{k_1}}{k_1!} \frac{\lambda_2^{k_2}}{k_2!} \sum_{k=0}^{\min(k_1,k_2)} \binom{k_1}{k} \binom{k_2}{k} k! \left( \frac{\lambda_3}{\lambda_1\lambda_2}\right)^k

Die Randverteilungen sind Poisson-verteilt mit den Parametern \lambda_1 und \lambda_2 und es gilt \operatorname{Cov}(X_1,X_2)=\lambda_3. Die Differenz ist Skellam-verteilt mit den Parametern \lambda_1 und \lambda_2.

Dies bedeutet, dass man relativ einfach Abhängigkeiten zwischen Poisson-verteilten Zufallsvariablen einführen kann, wenn man die Mittelwerte der Randverteilungen sowie die Kovarianz kennt oder schätzen kann. Man kann dann die bivariate Poisson-Verteilung X_1,X_2 einfach erzeugen, indem man drei unabhängige Poisson-verteilte Zufallsvariablen Y_1,Y_2,Y_3 definiert mit Parametern \lambda_1,\lambda_2,\lambda_3 und dann X_1 = Y_1 + Y_3,X_2 = Y_2 + Y_3 setzt.

Analog kann die multivariate Poisson-Verteilung[5] definiert werden.

Anwendungsbeispiele[Bearbeiten]

„Seltene“ Ereignisse[Bearbeiten]

Das klassische Beispiel stammt von Ladislaus von Bortkewitsch, der bei der Untersuchung der Anzahlen der Todesfälle durch Hufschlag in den einzelnen Kavallerie-Einheiten der preußischen Armee pro Jahr belegen konnte, dass diese Anzahlen gut durch eine Poisson-Verteilung beschrieben werden können.[6]

Allgemein müssen für die einzelnen Zählereignisse (im Beispiel die einzelnen Todesfälle durch Hufschläge) die folgenden Bedingungen gelten, damit die Anzahl Poisson-verteilt ist:[7]

  1. Einzelereignisse: Die Wahrscheinlichkeit, dass zwei Ereignisse in einem kurzen Zeitraum auftreten, ist vernachlässigbar.
  2. Proportionalität: Die Wahrscheinlichkeit, ein Ereignis in einem kurzen Zeitraum zu beobachten, ist proportional zur Länge des Zeitraums.
  3. Homogenität: Die Wahrscheinlichkeit, ein Ereignis in einem kurzen Zeitraum zu beobachten, ist unabhängig von der Lage des Zeitraums.
  4. Unabhängigkeit: Die Wahrscheinlichkeit, ein Ereignis in einem kurzen Zeitraum zu beobachten, ist unabhängig von der Wahrscheinlichkeit eines Ereignisses in anderen nicht-überlappenden Zeiträumen.

Alternativ kann man diese Bedingungen auch damit erklären, dass die Wartezeit zwischen zwei Ereignissen exponentialverteilt ist. Da diese gedächtnislos ist, treten die Ereignisse quasi zufällig und unabhängig voneinander ein.

Es ist in jedem Einzelfall zu prüfen, ob die Bedingungen vorliegen, aber typische Beispiele sind:

  • Anzahl der Druckfehler auf einer Buchseite
  • Anzahl der ankommenden Gespräche pro Stunde in einer Telefonzentrale
  • Anzahl der radioaktiven Zerfälle einer Substanz in einem gegebenen Zeitintervall (vorausgesetzt, dass die Zerfallsrate nicht merklich abnimmt, die Messdauer also klein im Vergleich zur Halbwertszeit ist)
  • Anzahl der Blitzeinschläge pro ha und Jahr
  • Anzahl der aufgetretenen Impfschäden pro Jahr

Nach dem Satz von Palm-Chintschin konvergieren sogar allgemeine Erneuerungsprozesse unter relativ milden Bedingungen gegen einen Poisson-Prozess, d. h. auch hier ergibt sich für die Anzahl der Ereignisse wieder die Poisson-Verteilung. Das bedeutet, dass die oben angegebenen Bedingungen noch erheblich abgeschwächt werden können.

Ankünfte von Kunden[Bearbeiten]

In Warteschlangensystemen kommen Kunden oder Aufträge im System an, um bedient zu werden. In der Warteschlangentheorie werden die unterschiedlichen Modelle in der Kendall-Notation beschrieben. Dabei werden häufig insb. die Anzahl der Kunden, die in einem gewissen Zeitintervall ankommen, mit einer Poisson-Verteilung modelliert (abgekürzt durch M für exponentialverteilte Zwischenankunftszeiten). Diese Modellbildung ist sehr attraktiv, da sich unter dieser Annahme oft einfache analytische Lösungen ergeben[8].

Häufig kann diese Annahme auch näherungsweise gerechtfertigt werden, hier soll an einem Beispiel illustriert werden, was diese Annahme bedeutet: Ein Kaufhaus wird beispielsweise an einem Samstag durchschnittlich alle 10 Sekunden von einem Kunden betreten. Werden nun im Takt von einer Minute die Personen gezählt, die neu dazu kamen, so würde man im Mittel 6 Personen erwarten, die das Kaufhaus pro Minute betreten. Die Wahl der Länge des Intervalls liegt beim Beobachter. Würde man eine Stunde als Beobachtungsintervall wählen, ergäbe sich \lambda = 6 \cdot 60 = 360, bei einem Intervall von 1 Sekunde wäre \lambda = 1 / 10 = 0{,}1. Die relative Schwankung der Kundenanzahl (\sqrt{\lambda} /  \lambda) nimmt mit größer werdendem Intervall und folglich größer werdendem \lambda ab. Das längere Intervall erlaubt also über die längere Mittelung eine im Prinzip präzisere Beobachtung, ist aber mit mehr Aufwand verbunden und kann innerhalb des Intervalls auftretende Veränderung der Bedingungen (z. B. Ankunft eines Busses mit einkaufswilligen Touristen) nicht erfassen.

Unter folgenden Randbedingungen könnte eine Poissonverteilung vorliegen:

  1. Die Kunden müssen einzeln ankommen. In der Realität kommen aber häufig Personengruppen gemeinsam an.
  2. Die Wahrscheinlichkeit, dass ein Kunde ankommt, könnte proportional zur Länge des Beobachtungszeitraums sein.
  3. Es gibt sicherlich über den Tag verteilt Stoßzeiten mit erhöhtem Kundenaufkommen, und Flauten.
  4. Die Kundenankünfte in verschiedenen Zeiträumen sind nicht notwendigerweise unabhängig. Z. B. bei Überfüllung des Kaufhauses könnten Kunden abgeschreckt werden.

In diesem Beispiel ist die Annahme der Poisson-Verteilung nur schwer zu rechtfertigen, daher gibt es Warteschlangenmodelle z. B. mit Gruppenankünften, endlichen Warteschlangen oder anderen Ankunftsverteilungen, um diesen Ankunftsprozess realistischer zu modellieren. Glücklicherweise sind einige wichtige Kennzahlen, wie z. B. nach Littles Gesetz die durchschnittliche Anzahl von Kunden im System, nicht von der konkreten Verteilung abhängig, d. h. auch wenn Annahmen verletzt sind, gilt dasselbe Ergebnis[9].

Ball-Fächer-Modell[Bearbeiten]

Im Gebiet Abzählende Kombinatorik besteht eine Standard-Aufgabe darin, Bälle oder Kugeln auf Fächer zu verteilen und abzuzählen, wie viele Möglichkeiten es gibt. Ordnet man die N Bälle den n Fächern zufällig zu, so erhält man für die Anzahl der Bälle in einem festen Fach eine Binomialverteilung mit p=1/n. Eine Anwendung ist z. B. die Verteilung von Rosinen auf einem Kuchen, mit dem Ziel, dass jedes Stück eine Mindestanzahl von Rosinen enthält.

Zufällig auf dem Boden verstreute Reiskörner.

Das Bild rechts zeigt einen Ausschnitt eines Fußbodens mit quadratischen Fliesen, auf dem Reiskörner zufällig verstreut wurden. Die n=49 Felder enthalten je k=0,\dotsc,5 Reiskörner und insgesamt befinden sich N=66 Reiskörner im betrachteten Ausschnitt. Man kann die Wahrscheinlichkeiten jetzt direkt über die Binomialverteilung bestimmen, aber es sind auch die Voraussetzungen der Poisson-Approximation erfüllt.

Der Vergleich zwischen Experiment und berechneter Poisson-Verteilung P(X=k), wobei \lambda = N/n = 66/49 = 1{,}35 Reiskörner/Quadrate ist, zeigt intuitiv eine gute Übereinstimmung. Statistisch könnte man die Güte mit einem Anpassungstest überprüfen.

Verteilung des Beispiels, gezählt (blau) und nach Poisson (rot)
k gezählt P(X=k)\cdot49

0

15

12,7

1

15

17,2

2

11

11,6

3

5

5,2

4

1

1,7

5

2

0,5

Die Wahrscheinlichkeit, dass ein bestimmtes Feld leer bleibt, ist etwa 26 %:

P(X=0)=\frac{1{,}35^0}{0!}\,\mathrm{e}^{-1{,}35} \approx 0{,}26.

Sportergebnisse[Bearbeiten]

In vielen Sportarten geht es in einem Wettbewerb darum, innerhalb eines bestimmten Zeitraums mehr zählende Ereignisse zu erwirken als der Gegner. Der Physiker Metin Tolan hat in seinem Buch zum Fußballspiel die Anwendbarkeit der Poisson-Verteilung im Sport ausführlich untersucht.[10]

Die (zeitliche) Konstanz der Ereigniswahrscheinlichkeit – eine hinreichende Voraussetzung für die Anwendung der Poisson-Statistik (siehe oben unter Poissonsche Annahmen) – ist bei Sportergebnissen in der Regel höchstens näherungsweise gegeben. Aber ist man nur an dem reinen Zählwert, z. B. der Torzahl einer Mannschaft, interessiert, so ergibt sich auch bei zeitabhängiger Torrate eine Poisson-Verteilung.[11] Schwieriger zu rechtfertigen ist die oft getroffene Annahme, dass die Tor- oder Punktzahlen zweier Mannschaften unabhängig sind. Kann man diese Annahme nicht statistisch ausreichend begründen, z. B. durch Hypothesen- oder Anpassungstest auf Übereinstimmung der Daten mit der Poisson-Verteilung, so kann man beispielsweise zur bivariaten Poisson-Verteilung übergehen und durch Schätzung der Kovarianz eine Abhängigkeit einführen.

Metin Tolan begründet, dass man die Torzahl einer Mannschaft in einem Fußballspiel in guter Näherung als Poisson-verteilt annehmen darf.[12] In seinem Ansatz berücksichtigt er zur Schätzung allerdings nur die durchschnittliche Anzahl von Toren pro Spiel und Mannschaft, d. h. er betrachtet beispielsweise nicht die Spielstärke der gegnerischen Mannschaft. Er hat auch nachgewiesen, dass über 70 % der Varianz der Punkteverteilung in der Fußball-Bundesliga durch Zufall erklärt werden können. Dies belegt auch aus stochastischer Sicht, warum Fußball spannend ist.

Für das Pokalendspiel 2015 hätte Tolan z. B. auf Grundlage der abgelaufenen Bundesliga-Saison für den VfL Wolfsburg 2,12 Tore und für Borussia Dortmund 1,38 Tore geschätzt. Andreas Heuer geht einen Schritt weiter und definiert die Spielstärke einer Mannschaft als die mittlere Tordifferenz einer Mannschaft beim Spiel gegen einen durchschnittlichen Gegner auf neutralem Platz.[13] Ebenfalls mit den Daten aus der abgelaufenen Bundesliga-Saison hätte man für den VfL Wolfsburg eine mittlere Tordifferenz von 1 und für Borussia Dortmund von 0,15 geschätzt. Um zu einer Spielprognose zu kommen, muss man nach Heuer noch die mittlere Anzahl der Tore pro Spiel berücksichtigen. Für diese beiden Mannschaften wäre das 2,92 und Heuer würde für den VfL Wolfsburg 1,885 Tore und für Borussia Dortmund 1,035 Tore schätzen. Für Saisonprognosen berücksichtigt Heuer in seinem kompletten Modell noch weitere Parameter wie die Heimstärke, den Marktwert oder das Abschneiden der Mannschaften in den Vorsaisons. Das Endspiel endete in der Praxis dann mit 3 Toren für Wolfsburg und einem Tor für Dortmund.

2/3-Gesetz beim Roulette[Bearbeiten]

Die Poisson-Verteilung ergibt eine gute Schätzung, wie viele verschiedene Nummern bei 37 Roulette-Spielen getroffen werden.

Einzelnachweise[Bearbeiten]

  1. Adell, Jodra : The median of the poisson distribution, Metrika 61, 2005, S. 337-346.
  2. Papoulis, A.: Poisson Process and Shot Noise, in Probability, Random Variables, and Stochastic Processes, 2. Aufl.,. New York: McGraw-Hill, S. 554-576, 1984.
  3. J. G. Skellam: The frequency distribution of the difference between two Poisson variates belonging to different populations. Journal of the Royal Statistical Society, Series A, 109 (3), 1946,296.
  4. Kazutomu Kawamura: The structure of bivariate Poisson distribution, Kodai Mathematical Seminar Reports, Volume 25, Number 2 (1973), 246-256
  5. Kazutomu Kawamura: The structure of multivariate Poisson distribution, Kodai Mathematical Journal, Volume 2, Number 3 (1979), 333-345
  6. Ladislaus von Bortkewitsch: Das Gesetz der kleinen Zahlen. Leipzig 1898 (online)
  7. Poisson-Verteilung Webseite, Humboldt Universität Berlin
  8. Gross, Donald; Harris, Carl M.: Fundamentals of Queuing Theory, Wiley & Sons: New York, 1994.
  9. Rolf Schassberger: Warteschlangen, Springer Verlag, Wien, 1973, ISBN 3-211-81074-9
  10. Metin Tolan: Manchmal gewinnt der Bessere: die Physik des Fußballspiels, Piper, 2011
  11. Alessandro Birolini: Reliability Engineering, Springer, 2014, insb. A7.8.2
  12. Holger Dambeck: Ist Fußball ein Glücksspiel? Spektrum der Wissenschaft, Juni 2010, S. 68–70.
  13. Andreas Heuer: Der perfekte Tipp. Wiley VCH, 2012.

Literatur[Bearbeiten]

Weblinks[Bearbeiten]

 Wikibooks: Poissonverteilung (für Anfänger) – Lern- und Lehrmaterialien