Reduktionsprinzip

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Als Reduktionsprinzipien bezeichnet man in der mathematischen Statistik verschiedene Methoden und Argumentationsweisen, welche das Auffinden von guten statistischen Verfahren erleichtern. Dabei wird die Menge der in Frage kommenden Verfahren durch eine gewissen strukturelle Anforderung verkleinert, was das Auffinden der guten Verfahren erleichtert. Die strukturelle Anforderung entspringt dabei beispielsweise den Eigenschaften des statistischen Modells oder pragmatischen Überlegungen. Drei klassische Reduktionsprinzipien sind Suffizienz, Äquivarianz/Invarianz und Erwartungstreue.[1]

Motivation[Bearbeiten | Quelltext bearbeiten]

Betrachtet man als Beispiel ein statistisches Produktmodell, das mit einer beliebigen Familie von Wahrscheinlichkeitsverteilungen versehen ist. Es werden also -mal Daten erhoben, wobei jede Erhebung einer Realisierung einer unbekannten Wahrscheinlichkeitsverteilung aus dem entsprechenden Modell ist. Geschätzt werden soll der unbekannte Erwartungswert der vorliegenden Wahrscheinlichkeitsverteilung, die zu schätzende Funktion ist also von der Form

Die erhobenen Daten sind Elemente des , der Erwartungswert ist eine reelle Zahl. Jeder Schätzer für den Erwartungswert ist also eine Funktion von nach , formal

.

Um nun von guten oder schlechten Schätzern sprechen zu können, wird noch eine Verlustfunktion eingeführt, mit der sich dann eine Risikofunktion bestimmen lässt. Gängig ist der Gauß-Verlust, der als Risikofunktion den mittleren quadratischen Fehler (Means squared error, MSE)

liefert (Hierbei bezeichnet die Bildung des Erwartungswertes bezüglich ).

Nun soll ein möglichst guter Schätzer für den Erwartungswert gefunden werden, sprich ein Schätzer, dessen mittlerer quadratischer Fehler kleiner ist als der aller weiteren Schätzer.

Das Problem ist nun, dass es sich bei der bisherigen Fragestellung um eine sehr offene Fragestellung mit wenig Struktur handelt, da die Menge der in Frage kommenden Schätzer sehr groß ist. Somit ist einerseits die Anzahl der potentiellen optimalen Schätzer sehr groß, andererseits ist es auch schwierig zu zeigen, dass ein Kandidat für den besten Schätzer wirklich besser ist als alle anderen Schätzer.

Daher ist es sinnvoll, nach Kriterien zu suchen, welche die Menge der in betracht kommenden Schätzfunktionen verkleinert, um die Suche nach optimalen Schätzern zu vereinfachen. Drei typische Kriterien sind:

  • Erwartungstreue: Hierbei schränkt man sich auf Schätzer ein, die im Mittel richtig liegen und somit keinen systematischen Fehler besitzen
  • Suffizienz: Zentrale Fragestellung der Suffizienz ist, ob die vorhandene Daten ohne Informationsverlust komprimiert werden können. Die komprimierten Daten bilden dann ein einfacheres Modell, was sich besser untersuchen lässt.
  • Äquivarianz und Invarianz: Diese Kriterien beschäftigen sich mit den geometrischen Eigenschaften des Modells und nutzen diese aus. So sollten gewisse Schätzwerte unabhängig von der Skalierung der Daten sein, ebenso sollte sich der Erwartungswert im obigen Modell bei einer Verschiebung der Daten um ebendiesen Wert verschieben.

Erwartungstreue[Bearbeiten | Quelltext bearbeiten]

Die Reduktion durch Erwartungstreue beruht auf der Idee, dass ein guter Schätzer im Mittel den gesuchten Wert korrekt schätzen sollte. Umgekehrt formuliert entspricht das der Forderung, dass der Schätzer keinen systematischen Fehler aufweisen sollte. Die Eigenschaft der Erwartungstreue wird auch unter dem Stichwort der Unverzerrtheit auf statistische Tests und Konfidenzbereiche übertragen.

Unter den Reduktionsprinzpien ist die Erwartungstreue am besten zugänglich, da sie nur auf dem Umgang mit dem Erwartungswert beruht und keine weiterreichenden komplexeren mathematischen Strukturen benötigt werden. Allerdings existieren erwartungstreue Schätzer nicht für jede Problemstellung oder können durchaus unsinnig sein.

Reduktion durch Suffizienz[Bearbeiten | Quelltext bearbeiten]

Die der Suffizienz zugrundeliegenden Idee ist, dass statistische Modelle möglicherweise Informationen enthalten, die für die Lösung einer Aufgabe (Schätzen, Testen usw.) gar nicht benötigt werden. Daher versucht man, die vorhandenen Daten ohne Informationsverlust zu komprimieren. Daraufhin kann nach optimalen statistischen Verfahren auf den komprimierten Daten weitergesucht werden.[2][3]

Ein einfaches Beispiel hierfür ist das n-malige Werfen einer Münze. Die Wiederholungen sollen dabei unabhängig voneinander sein. Aufgabe ist es, die unbekannte Wahrscheinlichkeit der Münze Kopf zu zeigen zu schätzen. Der Einfachheit halber sei Kopf mit der Zahl 1 und Zahl mit der Zahl 0 codiert. Das n-malige Hintereinanderausführen des Werfens legt nahe, das Experiment als Produktexperiment zu modellieren. Dabei kann in jedem Durchgang entweder eine eins oder eine null geworfen werden, nach Durchgängen ergibt sich also als Grundraum

.

Dieser enthält zu jedem Durchgang von 1 bis die Information, ob 0 oder ob 1 geworfen wurde. Eine Möglichkeit, diese Information zu komprimieren besteht darin, lediglich die Anzahl der geworfenen Einsen zu notieren. Dies entspricht dem Grundraum

,

die Kompression wird durch die Abbildung

vermittelt. Dass eine Kompression vorliegt, ist hier bereits an der Mächtigkeit der Mengen zu erkennen: enthält Elemente, wohingegen nur Elemente enthält. Interessant ist nun die Frage, ob noch alle relevanten Informationen für die Schätzung vorhanden sind oder ob bereits ein Informationsverlust aufgetreten ist. Sind alle relevanten Informationen (für die gestellte Aufgabe!) noch in enthalten, so genügt es völlig, nach guten Schätzern auf zu suchen.

Zentrales Werkzeug bei der Modellierung der Kompression ist der bedingte Erwartungswert. Er ermöglicht es nicht nur, die Kompression von Daten durch Abbildungen, sondern auch den Informationsgehalt von Mengensystemen, insbesondere σ-Algebren, zu erfassen.

Reduktion durch Invarianz und Äquivarianz[Bearbeiten | Quelltext bearbeiten]

Bei der Reduktion durch Invarianz und Äquivarianz versucht man, geometrische und algebraische Strukturen im Modell und der Aufgabenstellung ausfindig zu machen und zu nutzen. So gilt beispielsweise für den Erwartungswert einer Zufallsvariable

für eine Zahl . Verschiebung der Zufallsvariable um führt also zur Verschiebung des Erwartungswertes um . Diese Eigenschaft wird auch Verschiebungsäquivarianz genannt.

Soll nun der Erwartungswert geschätzt werden, so ist es sinnvoll, von Schätzern zu fordern, dass sie mit dieser Eigenschaft des Erwartungswertes verträglich sind. Ist als ein Schätzer für den Erwartungswert, so sollte

gelten. Solche Schätzer werden äquivariant genannt. Dies entspricht der Intuition, dass sich ein Lagemaß wie der Erwartungswert bei einer Verschiebung der Lage der Daten und genau diese Verschiebung verändern sollte, da es ja die Lage der Daten erfassen soll. Ein analoges Beispiel gilt für die Varianz, da sie immer

erfüllt. Sie ist somit verschiebungsinvariant. Dementsprechend sollte ein Schätzer für die Varianz auch verschiebungsinvariant sein, also

erfüllen. Dies entspricht der Intuition, dass ein Streuungsmaß wie die Varianz unabhängig von der Position der Daten ist.

Bei der Reduktion durch Invarianz und Äquivarianz versucht man daher, solche zugrundeliegenden algebraischen und geometrischen Anforderungen ausfindig zu machen und schränkt dann die Suche nach optimalen statistischen Verfahren auf solche ein, die mit der zugrundeliegenden Struktur verträglich sind. Hierbei wird die Gruppentheorie als Hilfsmittel herangezogen, da die geometrischen und algebraischen Strukturen durch Gruppen formalisiert werden. Die relevanten statistischen Verfahren sind dann diejenigen, welche mit den Gruppenoperationen verträglich sind.[4][5]

Im obigen Beispiel wäre die entsprechende Gruppe die Translationsgruppe auf , die Verträglichkeit der Abbildungen entspricht dann der (Verschiebungs-)Äquivarianz im Falle des Erwartungswertes und der Verschiebungsinvarianz im Falle der Varianz.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, S. V, doi:10.1007/978-3-642-41997-3.
  2. Ehrhard Behrends: Elementare Stochastik. Ein Lernbuch – von Studierenden mitentwickelt. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-8348-1939-0, S. 298, doi:10.1007/978-3-8348-2331-1.
  3. A.S. Kholevo: Sufficient Statistic. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
  4. Francisco J. Samaniego: A Comparison of the Bayesian and Frequentist Approaches to Estimation. Springer-Verlag, New York/Dordrecht/Heidelberg 2010, ISBN 978-1-4419-5940-9, S. 21–22, doi:10.1007/978-1-4419-5941-6.
  5. Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, S. 249–250, doi:10.1007/978-3-642-41997-3.