Tschebyscheff-Ungleichung

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel behandelt die statistische Tschebyschow-Ungleichung. Für die arithmetische Tschebyschow-Ungleichung siehe Tschebyschow-Summenungleichung.

In der Stochastik ist die Tschebyscheff-Ungleichung oder Tschebyschow-Ungleichung eine Ungleichung, die zur Abschätzung von Wahrscheinlichkeiten verwendet wird. Sie gibt eine obere Grenze für die Wahrscheinlichkeit an, dass eine Zufallsvariable mit endlicher Varianz Werte außerhalb eines symmetrisch um den Erwartungswert gelegenen Intervalls annimmt. Damit ist auch eine untere Grenze für die Wahrscheinlichkeit angegeben, dass die Werte innerhalb dieses Intervalls liegen. Der Satz lässt sich auch auf Verteilungen anwenden, die weder „glockenförmig“ noch symmetrisch sind und setzt Grenzen dafür, wie viele der Daten „in der Mitte“ liegen und wie viele nicht.

Die Ungleichung ist zu Ehren von Pafnuti Lwowitsch Tschebyschow benannt; in Transkriptionen findet sich gelegentlich noch die Schreibweisen Tschebyschev oder Chebyshev.

Satz[Bearbeiten]

Sei X eine Zufallsvariable mit Erwartungswert \mu und endlicher Varianz \sigma^2. Dann gilt für alle reellen Zahlen k > 0:

\operatorname{P}\left[\left|X-\mu\right|\geq k\right] \leq \frac{\sigma^2}{k^2} .

Durch Übergang zum komplementären Ereignis erhält man

\operatorname{P}\left[\left|X-\mu\right| < k\right] \geq 1 - \frac{\sigma^2}{k^2} .

Der Beweis ergibt sich als Anwendung der Markow-Ungleichung, eine einfache Herleitung findet sich auch unten. Wie man die Markow-Ungleichung mit schulgemäßen Mitteln aus einem unmittelbar einsichtigen Flächenvergleich folgern und dann daraus diese Fassung der Ungleichung von Tschebyschew herleiten kann, findet man in [1]

Die von der Tschebyscheff-Ungleichung angegebenen Grenzen können nicht verbessert werden:

Für die diskrete Zufallsgröße X mit \operatorname{P}\left[X=\mu\right]=1-p und \operatorname{P}\left[X=\mu-k\right]=\operatorname{P}\left[X=\mu+k\right]=p/2 gilt das Gleichheitszeichen.

Im Allgemeinen sind die Abschätzungen aber eher schwach. Beispielsweise sind sie für k \leq \sigma trivial. Dennoch ist der Satz oft nützlich, weil er ohne Verteilungsannahmen über die Zufallsvariablen auskommt, und somit für alle Verteilungen mit endlicher Varianz (insbesondere auch solche, die sich stark von der Normalverteilung unterscheiden) anwendbar ist. Außerdem sind die Schranken einfach zu berechnen.

Varianten[Bearbeiten]

Abweichungen ausgedrückt durch die Standardabweichung[Bearbeiten]

Ist die Standardabweichung \sigma von Null verschieden und \lambda eine positive Zahl, so erhält man mit k = \lambda \sigma eine oft zitierte Variante der Tschebyscheff-Ungleichung:

\operatorname{P}\left[\left|X-\mu\right|\geq \lambda \sigma\right] \leq \frac{1}{\lambda^2} .

Diese Ungleichung liefert nur für \lambda > 1 eine sinnvolle Abschätzung, für 0<\lambda\leq 1 ist sie trivial, denn Wahrscheinlichkeiten sind stets durch 1 beschränkt.

Verallgemeinerung auf höhere Momente[Bearbeiten]

Die Tschebyscheff-Ungleichung lässt sich auf höhere Momente verallgemeinern (Lit.: Ash, 1972, Theorem 2.4.9): Im Maßraum (\Omega,\Sigma,\nu)\; gilt für eine messbare Funktion f: \Omega\to\R_0^+ und \varepsilon, p\in\R^+

\nu(\{x|f(x)\geq \varepsilon\})\leq \frac{1}{\varepsilon^p}\int_\Omega f^p {\rm d}\nu.

Das folgt aus

\int_\Omega f^p \;{\rm d}\nu \geq \int_{\{x|f(x)\geq \varepsilon\}} f^p \;{\rm d}\nu \geq \int_{\{x|f(x)\geq \varepsilon\}} \varepsilon^p \;{\rm d}\nu = \varepsilon^p\nu(\{x|f(x)\geq \varepsilon\}).

Daraus erhält man als Spezialfall die oben genannte Ungleichung, indem man \nu = P, f=|X-\mu| und p=2 setzt, denn dann ist

P(|X-\mu| \ge k) = P(|X-\mu|^2 \ge k^2) \le \frac{1}{k^2}\int_\Omega |X-\mu|^2 \;{\rm d}P = \frac{\sigma^2}{k^2} .

Anwendungen[Bearbeiten]

  • Der Satz wird beim Beweis des Gesetzes der großen Zahlen verwendet.
  • Die Verallgemeinerung auf höhere Momente kann benutzt werden, um zu zeigen, dass aus der L^p\;-Konvergenz von Funktionenfolgen die Konvergenz im Maß folgt.
  • Für den Median m gilt \left|\mu-m\right| \leq \sigma.

Beispiele[Bearbeiten]

Beispiel 1[Bearbeiten]

Nehmen wir zum Beispiel an, dass Wikipedia-Artikel einen Erwartungswert der Länge von 1000 Zeichen mit einer Standardabweichung von 200 Zeichen haben. Aus der Tschebyscheff-Ungleichung kann man dann ableiten, dass mit mindestens 75 % Wahrscheinlichkeit ein Wikipedia-Artikel eine Länge zwischen 600 und 1400 Zeichen hat (k=400, ~ \mu=1000, ~ \sigma^2=40000).

Der Wert für die Wahrscheinlichkeit wird auf folgende Weise berechnet:

\operatorname{P}\left[\left|X-1000\right| < 400\right] \geq 1 - \frac{200^2}{400^2} = 0,75 = 75\%

Beispiel 2[Bearbeiten]

Eine andere Folgerung aus dem Satz ist, dass für jede Wahrscheinlichkeitsverteilung mit Mittelwert \mu und endlicher Standardabweichung \sigma mindestens die Hälfte der Werte im Intervall (\mu - \sqrt{2}\sigma, \mu + \sqrt{2}\sigma) liegen (k^2=2\sigma^2).

Beispiel 3[Bearbeiten]

Ein Zufallsereignis tritt bei einem Versuch mit Wahrscheinlichkeit p\; ein. Der Versuch wird n\; mal wiederholt; das Ereignis trete dabei k\; Mal auf. k\; ist dann binomialverteilt und hat Erwartungswert np\; und Varianz np(1-p)\;; die relative Häufigkeit \frac{k}{n} des Eintretens hat somit Erwartungswert p\; und Varianz \frac{p(1-p)}{n}. Für die Abweichung der relativen Häufigkeit vom Erwartungswert liefert die Tschebyscheff-Ungleichung

\operatorname{P}\left[\left|\frac{k}{n}-p \right|\geq \epsilon \right] \leq \frac{p(1-p)}{\epsilon^2n} \leq \frac{1}{4\epsilon^2n} ,

wobei für die zweite Abschätzung die unmittelbar aus der Ungleichung vom arithmetischen und geometrischen Mittel folgende Beziehung \sqrt{p(1-p)}\leq \frac{1}{2} verwendet wurde.

Bei dieser Formel handelt es sich um den Spezialfall eines schwachen Gesetzes der großen Zahlen, das die stochastische Konvergenz der relativen Häufigkeiten gegen den Erwartungswert zeigt.

Die Tschebyscheff-Ungleichung liefert für dieses Beispiel nur eine grobe Abschätzung, eine quantitative Verbesserung liefert die Chernoff-Ungleichung.

Einzelnachweise[Bearbeiten]

  1. H. Wirths : Der Erwartungswert - Skizzen zur Begriffsentwickung von Klasse 8 bis 13. In : Mathematik in der Schule 1995/Heft 6, S. 330 - 343

Literatur[Bearbeiten]

 Wikibooks: Beschreibung mit Beispiel – Lern- und Lehrmaterialien
  • Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3.
  • Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. 7. Auflage, Vieweg Verlag, Wiesbaden 2003, ISBN 3-528-67259-5.
  • P. L. Tschebyschow: On Mean Values, in: Journal de Mathématiques Pures et Appliquées 2(12), 1867, S. 177–184.
  • Andreas Wagener: Chebyshev's Algebraic inequality and comparative statics under uncertainty, in: Mathematical social sciences 52 (2006), S. 217–221.