Momentenmethode

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel behandelt die Momentenmethode als statistisches Verfahren. Das gleichnamige Verfahren in der Elektrotechnik ist unter Momentenmethode (Elektrotechnik) zu finden.

Die Momentenmethode ist in der schließenden Statistik ein Schätzverfahren, mit dem man anhand einer Stichprobe die Parameter der theoretischen Verteilung einer Grundgesamtheit schätzen kann. Dazu drückt man diese Parameter in Abhängigkeit von den Momenten der Verteilung aus. In einem zweiten Schritt setzt man die empirischen Momente anstatt der Momente in die Gleichungen ein und erhält so die Momentenschätzer. Indem man die Werte einer Stichprobe in den Momentenschätzer einsetzt, erhält man eine Schätzung des entsprechenden Parameters der theoretischen Verteilung.

Die Momentenmethode ist die älteste Schätztechnik und geht auf Karl Pearson zurück. Sie ist in der Anwendung sehr einfach, hat aber den Nachteil, dass die resultierenden Schätzer nicht immer erwartungstreu sind.

Vorgehensweise[Bearbeiten]

  1. Die Parameter \theta_i der theoretischen Verteilung werden als Funktionen der Momente m_k angegeben:
    \theta_i = h_i(m_1, m_2, \dotsc, m_n)
  2. Die Momentenschätzer \hat\theta_i für die einzelnen Parameter werden berechnet, indem in den obigen Gleichungen die empirischen Momente \hat m_k = \frac {1}{n}\sum_{i=1}^n x_i^k für die Momente m_k eingesetzt werden:
    \hat\theta_i = h_i\left(\frac {1}{n}\sum_{i=1}^n x_i^1, \frac {1}{n}\sum_{i=1}^n x_i^2, \dotsc, \frac {1}{n}\sum_{i=1}^n x_i^n\right)

Ein einzelner Parameter kann direkt errechnet werden. Bei mehreren zu schätzenden Parametern ergibt sich häufig ein Gleichungssystem, das bezüglich der unbekannten Parameter aufgelöst werden kann.

Durch Einsetzen der Werte einer Stichprobe erhält man dann Werte für die Parameter der theoretischen Verteilung.

Beispiel[Bearbeiten]

Es wird angenommen, dass die Grundgesamtheit normalverteilt ist. Ausgehend von einer Zufallsstichprobe sollen Erwartungswert \mu und Varianz \sigma^2 der entsprechenden Zufallsvariable geschätzt werden.

Bei der Normalverteilung gilt E(X) = \mu und E(X^2) = \sigma^2 + \mu^2. Die unbekannten Parameter hängen dann wie folgt von m_1 = E(X) und m_2 = E(X^2) ab:

\theta_1 = \mu = E(X)
\theta_2 = \sigma^2 = E(X^2) - \mu^2 = E(X^2) - E(X)^2

Setzt man nun die Schätzfunktionen ein, so erhält man die folgenden Schätzungen:

\hat\mu = \frac {1}{n}\sum_{i=1}^n x_i = \bar x
\hat\sigma^2 = \left(\frac {1}{n}\sum_{i=1}^n x_i^2\right) - \left(\frac {1}{n}\sum_{i=1}^n x_i\right)^2 = \frac {1}{n}\sum_{i=1}^n (x_i - \bar x)^2

Man sieht, dass \hat\sigma^2 nicht erwartungstreu ist, da die Quadratsumme durch n statt n-1 geteilt wird. (Beweis siehe hier.) Der Schätzer ist jedoch asymptotisch erwartungstreu.

Literatur[Bearbeiten]