Konvergenz im p-ten Mittel

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Konvergenz im p-ten Mittel und die beiden Spezialfälle der Konvergenz im quadratischen Mittel und der Konvergenz im Mittel sind Konvergenzbegriffe aus der Maßtheorie und der Wahrscheinlichkeitstheorie, zwei Teilgebieten der Mathematik. In der Maßtheorie ist sie grundlegend für die Konvergenz von Funktionenfolgen in den Funktionenräumen der p-fach integrierbaren Funktionen, den und -Räumen, in der Wahrscheinlichkeitstheorie ist sie neben der fast sicheren Konvergenz, der Konvergenz in Verteilung und der stochastischen Konvergenz einer der gängigen Konvergenzbegriffe.

Teilweise wird die Konvergenz im p-ten Mittel zur Abgrenzung von der schwachen Konvergenz in und auch als starke Konvergenz in beziehungsweise oder Normkonvergenz in beziehungsweise bezeichnet.

Definition[Bearbeiten | Quelltext bearbeiten]

Maßtheoretische Formulierung[Bearbeiten | Quelltext bearbeiten]

Gegeben sei ein Maßraum , eine reelle Zahl und der entsprechende Funktionenraum , kurz mit bezeichnet. Des Weiteren sei eine Funktionenfolge aus gegeben sowie eine weitere Funktion . Definiert man

,

so heißt die Funktionenfolge konvergent im p-ten Mittel gegen , wenn

ist. Ist , so spricht man von Konvergenz im quadratischen Mittel. Ist , so spricht man von Konvergenz im Mittel.

Ebenso definiert man die Konvergenz von gegen .

Wahrscheinlichkeitstheoretische Formulierung[Bearbeiten | Quelltext bearbeiten]

Gegeben sei eine Folge von Zufallsvariablen und eine weitere Zufallsvariable . Es gelte und für alle .

Die Folge konvergiert im p-ten Mittel gegen , wenn

ist. Man schreibt dann .

Wie im maßtheoretischen Fall spricht man für von Konvergenz im quadratischen Mittel, für spricht man von Konvergenz im Mittel.

Eigenschaften[Bearbeiten | Quelltext bearbeiten]

  • Für Funktionen ist der Grenzwert nur -fast überall bestimmt, da aus nur -fast überall folgt. Für ist der Grenzwert eindeutig.
  • Für bildet auf aufgrund der obigen Aussage eine Halbnorm. Auf handelt es sich dann um eine Norm. Für gilt dies jedoch nicht, da hier die Dreiecksungleichung (in diesem speziellen Fall die Minkowski-Ungleichung) nicht mehr gilt. Allerdings lässt sich durch
eine Metrik definieren, für die
gilt.

Eigenschaften für unterschiedliche Parameter p[Bearbeiten | Quelltext bearbeiten]

Es sei . Für endliche Maßräume folgt aus der Konvergenz im -ten Mittel die Konvergenz im p-ten Mittel. Denn es gilt

,

die im p-ten Mittel konvergente Folge wird also von der im -ten Mittel konvergenten Folge majorisiert. Die obige Ungleichung folgt aus der Hölder-Ungleichung, angewandt auf die Funktionen und mit Exponenten .

Die Aussage ist aber im Allgemeinen falsch. Betrachtet man beispielsweise für reelles auf die Funktionenfolge

,

so ist

und somit

Der Umkehrschluss, also von der Konvergenz im p-ten Mittel zur Konvergenz im -ten Mittel ist sowohl im Falle eines endlichen Maßes als auch im Allgemeinen falsch. Beispiel hierfür wäre die Funktionenfolge auf definiert durch

Wie oben ist dann

.

Cauchy-Folgen[Bearbeiten | Quelltext bearbeiten]

Eine Folge von Funktionen in (bzw. ) heißt eine Cauchy-Folge für die Konvergenz im p-ten Mittel, wenn zu jedem ein Index existiert, so dass

für alle . Jede im p-ten Mittel konvergente Folge ist eine Cauchy-Folge. Denn für ist

,

für gilt dieselbe Ungleichung mit . Der Satz von Fischer-Riesz liefert die Umkehrung, also dass jede Cauchy-Folge konvergiert. Damit sind der und der vollständige Räume.

Beziehung zu Konvergenzbegriffen der Wahrscheinlichkeitstheorie[Bearbeiten | Quelltext bearbeiten]

Allgemein gelten für die Konvergenzbegriffe der Wahrscheinlichkeitstheorie die Implikationen

und

.

Die Konvergenz im p-ten Mittel ist also einer der starken Konvergenzbegriffe der Wahrscheinlichkeitstheorie. In den unten stehenden Abschnitten sind die Beziehungen zu den anderen Konvergenzarten genauer ausgeführt.

Konvergenz in Wahrscheinlichkeit[Bearbeiten | Quelltext bearbeiten]

Aus der Konvergenz im p-ten Mittel folgt für unmittelbar die Konvergenz in Wahrscheinlichkeit. Dazu wendet man die Markow-Ungleichung auf die Funktion an, die für monoton wachsend ist, und die Zufallsvariable an. Dann folgt

,

was im Grenzwert gegen null geht. Die Umkehrung gilt im Allgemeinen nicht. Ein Beispiel hierfür ist: sind die Zufallsvariablen definiert durch

mit . Dann ist

,

wenn . Also konvergiert die Folge für im Mittel gegen 0. Für beliebiges ist aber

. Also konvergiert die Folge für alle in Wahrscheinlichkeit gegen 0.

Ein Kriterium, unter dem die Konvergenz im p-ten Mittel aus der Konvergenz in Wahrscheinlichkeit gilt ist, dass eine Majorante mit existiert, so dass für alle gilt. Konvergieren dann die in Wahrscheinlichkeit gegen , so konvergieren sie auch im p-ten Mittel gegen . Allgemeiner lässt sich eine Verbindung zwischen der Konvergenz im p-ten Mittel und der Konvergenz in Wahrscheinlichkeit mittels des Konvergenzsatzes von Vitali und der gleichgradigen Integrierbarkeit im p-ten Mittel ziehen: Eine Folge konvergiert genau dann im p-ten Mittel, wenn sie gleichgradig integrierbar im p-ten Mittel ist und sie in Wahrscheinlichkeit konvergiert.

Fast sichere Konvergenz[Bearbeiten | Quelltext bearbeiten]

Im Allgemeinen folgt aus der Konvergenz im p-ten Mittel nicht die fast sichere Konvergenz. Betrachtet man beispielsweise eine Folge von stochastisch unabhängigen Zufallsvariablen mit

,

so ist für alle

,

was gegen null konvergiert. Somit konvergieren die Zufallsvariablen im p-ten Mittel gegen 0. Sie konvergieren aber nicht fast sicher, wie mithilfe des zweiten Borel-Cantelli-Lemmas gezeigt werden kann.

Konvergiert allerdings eine Folge von Zufallsvariablen im p-ten Mittel gegen und gilt

,

dann konvergiert die Folge auch fast sicher gegen . Die Konvergenz muss also „schnell genug“ sein. (Alternativ kann man auch nutzen, dass bei Gültigkeit des Konvergenzsatz von Vitali die Konvergenz nach Wahrscheinlichkeit und die fast sichere Konvergenz zusammenfallen. Sind somit die Voraussetzungen dieses Satzes erfüllt, so folgt aus Konvergenz im p-ten Mittel die fast sichere Konvergenz, da aus der Konvergenz im p-ten Mittel automatisch die Konvergenz in Wahrscheinlichkeit folgt.)

Umgekehrt folgt aus der fast sicheren Konvergenz auch nicht die Konvergenz im p-ten Mittel. Betrachtet man beispielsweise auf dem Wahrscheinlichkeitsraum die Zufallsvariablen

,

so konvergiert diese für punktweise gegen 0 und damit auch ganz fast sicher gegen 0 ( bezeichnet hier die Gleichverteilung auf ).

so ist und die Folge ist demnach unbeschränkt für alle , kann also nicht konvergieren.

Allerdings liefert der Satz von der majorisierten Konvergenz ein Kriterium, unter dem diese Folgerung korrekt ist. Konvergieren die fast sicher und existiert eine Zufallsvariable mit und ist fast sicher, so konvergieren die im p-ten Mittel gegen und auch für gilt .

Beziehung zu Konvergenzbegriffen der Maßtheorie[Bearbeiten | Quelltext bearbeiten]

Konvergenz lokal nach Maß[Bearbeiten | Quelltext bearbeiten]

Nach dem Konvergenzsatz von Vitali ist eine Folge genau dann Konvergent im p-ten Mittel, wenn sie lokal nach Maß konvergent ist und gleichgradig integrierbar im p-ten Mittel ist.

Auf die gleichgradige Integrierbarkeit kann dabei nicht verzichtet werden, wie das folgende Beispiel verdeutlicht. Setzt man und definiert die Funktionenfolge

.

auf dem Maßraum , so konvergiert diese lokal nach Maß gegen 0, denn für ist

.

Aber sie ist nicht gleichgradig integrierbar (im ersten Mittel), denn es ist

Dem Konvergenzsatz von Vitali folgend ist sie auch nicht (im ersten Mittel) konvergent gegen 0, denn es ist

.

Ebenso wenig kann auf die Konvergenz lokal nach Maß verzichtet werden, denn wählt man und den Maßraum , so ist die Funktionenfolge, die durch

.

definiert wird gleichgradig integrierbar im ersten Mittel, da sie von der integrierbaren Funktion, die konstant 1 ist, majorisiert wird. Aufgrund ihres oszillierenden Verhaltens kann die Folge aber nicht lokal nach Maß konvergieren, denn für die Grundmenge und gibt es keine Funktion , so dass klein wird. Mit einem analogen Argument folgt dann auch, dass die Funktionenfolge nicht im ersten Mittel konvergiert.

Konvergenz nach Maß[Bearbeiten | Quelltext bearbeiten]

Aus der Konvergenz im p-ten Mittel folgt die Konvergenz nach Maß, denn es ist

.

Nach dem Konvergenzsatz von Vitali ist die Konvergenz im p-ten Mittel äquivalent zur Konvergenz nach Maß und der gleichgradigen Integrierbarkeit im p-ten Mittel. Dabei kann weder auf die Konvergenz nach Maß noch auf die gleichgradige Integrierbarkeit verzichtet werden. Die Beispiele hierzu finden sich im Abschnitt „Konvergenz lokal nach Maß“.

Punktweise Konvergenz μ-fast überall[Bearbeiten | Quelltext bearbeiten]

Aus der punktweisen Konvergenz μ-fast überall folgt im Allgemeinen nicht die Konvergenz im p-ten Mittel. Ebenso folgt aus der Konvergenz im p-ten Mittel im Allgemeinen nicht die punktweise Konvergenz μ-fast überall.

Ein Beispiel hierfür ist die Funktionenfolge

.

auf dem Maßraum . Sie konvergiert fast überall punktweise gegen 0, aber es ist

.

Betrachtet man umgekehrt die Folge von Intervallen

und definiert die Funktionenfolge als

,

so ist , da die Breite der Intervalle gegen 0 konvergiert. Die Folge konvergiert aber nicht fast überall punktweise gegen 0, da an einer beliebigen Stelle jeder der Werte 0 und 1 beliebig oft angenommen wird.

Allerdings besitzt jede im p-ten Mittel konvergente Folge eine fast sicher konvergente Teilfolge mit demselben Grenzwert. Im obigen Beispiel könnte man beispielsweise Indizes auswählen, so dass

für ist. Dann konvergieren auch die fast sicher punktweise gegen 0.

Ein Kriterium, unter dem aus der punktweisen Konvergenz μ-fast überall die Konvergenz im p-ten Mittel folgt, liefert der Satz von der majorisierten Konvergenz. Er sagt aus, dass wenn zusätzlich zur Konvergenz fast überall noch eine Majorante aus existiert, auch die Konvergenz im p-ten Mittel folgt. Allgemeiner genügt es, wenn anstelle der Existenz einer Majorante nur die gleichgradige Integrierbarkeit der Funktionenfolge gefordert wird, denn aus der Konvergenz fast überall folgt die Konvergenz lokal nach Maß. Somit kann dann bei gleichgradiger integrierbarkeit im p-ten Mittel mittels des Konvergenzsatzes von Vitali auf die Konvergenz im p-ten Mittel geschlossen werden. Die Majorante ist aus dieser Perspektive bloß ein hinreichendes Kriterium für die gleichgradige Integrierbarkeit.

Gleichmäßige Konvergenz μ-fast überall[Bearbeiten | Quelltext bearbeiten]

Im Falle eines endlichen Maßraumes folgt aus der gleichmäßigen Konvergenz fast überall die Konvergenz im p-ten Mittel mit , denn mittels der Hölder-Ungleichung kann man zeigen, dass

.

gilt. Für nicht-endliche Maßräume ist dieser Schluss jedoch im Allgemeinen falsch. Definiert man die beispielsweise die Funktionenfolge

auf , so ist

.

Der Schluss von der Konvergenz im p-ten Mittel zur gleichmäßigen Konvergenz fast überall ist sowohl in endlichen Maßräumen als auch in allgemeinen Maßräumen im Allgemeinen falsch. Die Funktionenfolge auf dem endlichen Maßraum konvergiert beispielsweise für im p-ten Mittel gegen 0, aber nicht fast überall gleichmäßig gegen 0.

Schwache Konvergenz in Lp[Bearbeiten | Quelltext bearbeiten]

Jede im p-ten Mittel konvergente Folge konvergiert für auch schwach, denn aus der Hölder-Ungleichung folgt für :

,

somit existiert eine konvergente Majorante. Die Grenzwerte stimmen dann überein. Der Satz von Radon-Riesz liefert unter einer Voraussetzung auch die Umkehrung. Er besagt, dass für eine Funktionenfolge genau dann im p-ten Mittel konvergiert, wenn sie schwach konvergiert und die Folge der Normen der Funktionenfolge gegen die Norm der Grenzfunktion konvergiert.

Literatur[Bearbeiten | Quelltext bearbeiten]