Konsistenz (Statistik)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Konsistenz ist ein Begriff der mathematischen Statistik. Er drückt eine Minimalforderung an Schätzfunktionen bzw. statistische Tests aus, damit diese als praktikabel gelten (weitere Forderungen: (asymptotische) Erwartungstreue, (asymptotische) Effizienz und Suffizienz). Heuristisch gesprochen sind Schätzer konsistent, wenn eine Vergrößerung des Stichprobenumfangs dazu führt, dass der Schätzer näher am wahren Wert des zu schätzenden Parameters liegt. Im Idealfall unendlich vieler Beobachtungen sollten Schätzwert und wahrer Parameter identisch sein.

Formal entspricht Konsistenz einer Schätzfunktion  T_n für  \vartheta (bzw. für ein Funktional von  \vartheta ), in der Regel der stochastischen Konvergenz T_n \stackrel{\mathcal P}{\rightarrow} \vartheta . Analog heißen Tests konsistent, wenn die Wahrscheinlichkeit für einen Fehler zweiter Art stochastisch gegen 0 konvergiert. Mitunter wird auch zwischen schwacher Konsistenz (entspricht Konsistenz im obigen Sinn), starker Konsistenz (entspricht fast sicherer Konvergenz) und Konsistenz im quadratischen Mittel (entspricht Konvergenz im quadratischen Mittel) unterschieden. Alle hier angesprochenen Konvergenzarten werden im Überblicksartikel zur Konvergenz in der Stochastik definiert und eingeordnet.

Literatur[Bearbeiten]

  • Hans-Otto Georgii: Stochastik: Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. de Gruyter Lehrbuch, Berlin 2009, ISBN 978-3-11-021526-7, Abschnitt 7.6.