Konsistenz (Statistik)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Konsistenz ist ein Begriff der mathematischen Statistik. Er drückt eine Minimalforderung an Schätzfunktionen bzw. statistische Tests aus, damit diese als praktikabel gelten. Weitere mögliche Forderungen an Schätzer sind (asymptotische) Erwartungstreue, (asymptotische) Effizienz und Suffizienz.

Heuristisch gesprochen sind Schätzer konsistent, wenn eine Vergrößerung des Stichprobenumfangs dazu führt, dass die Schätzung des Schätzers näher am wahren Wert des zu schätzenden Parameters liegt. Im Idealfall unendlich vieler Beobachtungen sollten Schätzung und wahrer Parameter identisch sein.

Formal entspricht Konsistenz einer Schätzfunktion T_n für \vartheta (bzw. für ein Funktional von \vartheta), in der Regel der stochastischen Konvergenz T_n \stackrel{\mathcal P}{\rightarrow} \vartheta. Analog heißen Tests konsistent, wenn die Wahrscheinlichkeit für einen Fehler zweiter Art stochastisch gegen 0 konvergiert. Mitunter wird auch zwischen schwacher Konsistenz (entspricht Konsistenz im obigen Sinn), starker Konsistenz (entspricht fast sicherer Konvergenz) und Konsistenz im quadratischen Mittel (entspricht Konvergenz im quadratischen Mittel) unterschieden.

Literatur[Bearbeiten]

  • Hans-Otto Georgii: Stochastik: Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. de Gruyter Lehrbuch, Berlin 2009, ISBN 978-3-11-021526-7, Abschnitt 7.6.