Lineare Paneldatenmodelle

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Fixed- und Random-Effects-Modelle)
Wechseln zu: Navigation, Suche
Welchen Einfluss hat Bildung auf das Einkommen einer Person?
Paneldaten und für sie entwickelte Modelle werden zur Beantwortung solcher und anderer Fragen benutzt.

Lineare Paneldatenmodelle sind statistische Modelle, die bei der Analyse von Paneldaten benutzt werden, bei denen mehrere Individuen über mehrere Zeitperioden beobachtet werden. Paneldatenmodelle nutzen diese Panelstruktur aus und erlauben es, unbeobachtete Heterogenität der Individuen zu berücksichtigen. Die beiden wichtigsten linearen Paneldatenmodelle sind das Fixed-Effects-Modell und das Random-Effects-Modell. Die beiden Modelle unterscheiden sich in den Annahmen, die an den Fehlerterm des Modells gestellt werden und erlauben die Herleitung verschiedener Schätzer. Anwendungsgebiete von linearen Paneldatenmodellen finden sich vor allem in der Empirischen Sozialforschung.

Grundlagen[Bearbeiten]

Bei der Auswertung statistischer Daten sollen aus einer endlichen Menge an Daten Aussagen über die zugrunde liegende Verteilung von Merkmalen in einer Grundgesamtheit ermittelt werden. Man versucht, die unbekannten Parameter dieser Grundgesamtheit mit Hilfe von Schätzern zu ermitteln. Eine typische Anwendung ist die Schätzung des Effekts einer Variablen x auf eine andere Variable y (siehe auch Regressionsanalyse). Ein Beispiel hierfür wäre die in der Arbeitsökonomik relevante Frage nach dem Effekt von Bildung (x) auf das Einkommen einer Person (y).[1]

Ein Schätzer ist eine Zufallsvariable, was zu Unschärfe bei den ermittelten Parametern führt (siehe auch Verteilungsfunktion und Varianz). Deswegen wird selbst im Idealfall der „wahre Wert“ des unbekannten Parameters nicht erreicht, sondern nur Näherungswerte.

Die Fähigkeit, den wahren Wert zumindest im Erwartungswert zu erreichen (Erwartungstreue) oder für große Stichproben gegen ihn zu konvergieren (Konsistenz), sowie die Varianz des Schätzers um den wahren Wert sind deswegen wichtige Eigenschaften eines Schätzers. Die Methode der kleinsten Quadrate ist eine weit verbreitete Methode, um Schätzer zu konstruieren, die unter den Annahmen des Satzes von Gauß-Markov konsistent und effizient sind. Werden jedoch relevante Größen nicht in die Regression mit aufgenommen, so können Endogenität, Heteroskedastizität und Autokorrelation entstehen, wodurch die Kleinste-Quadrat-Schätzung ihre wünschenswerten Eigenschaften verliert und ineffizient oder sogar inkonsistent wird. Durch die Nutzung von Paneldaten und Paneldatenmodellen können Schätzer hergeleitet werden, die diese Probleme lösen.

Eine typische Gleichung eines linearen Paneldatenmodelles für ein Panel mit  i=1,\dotsc,N Individuen und t=1,\dotsc,T Zeitperioden hat die Form

 y_{it} = x_{it}'\beta + \alpha_i + u_{it}

Dabei stellt y die Ausprägung der erklärten/abhängigen Variable für Individuum i und Zeitperiode t dar. x ist ein Vektor, der die Ausprägungen der erklärenden/unabhängigen Variablen enthält. Als Beispiel könnte y das Einkommen einer Person i im Jahr t sein. Variablen im Vektor x wären dann jene Faktoren, die einen Einfluss auf das Einkommen einer Person haben, wie Alter, Arbeitserfahrung, ob eine Person arbeitslos ist oder nicht, Geschlecht, Nationalität oder die Anzahl besuchter Fortbildungsseminare. Die im Vektor x zusammengefassten Variablen sind allesamt beobachtbar und stehen in dem Datensatz zur Verfügung. Neben diesen Variablen gibt es jedoch noch weitere Faktoren, die nicht oder nur sehr schwer beobachtet werden können und deswegen nicht im Datensatz zur Verfügung stehen. Diese Faktoren werden durch die Terme  \alpha_i und  u_{it} repräsentiert.  u_{it} stellt dabei einen Sammelterm für all jene unbeobachteten Variablen dar, die sich über Zeit und Personen unterscheiden, zum Beispiel die Gesundheit einer Person i im Jahr t.  \alpha_i steht für die unbeobachteten Variablen, die sich zwischen Personen unterscheiden, für eine gegebene Person aber über die Zeit konstant sind. Beispiele hierfür wären die grundsätzlichen Wertvorstellungen einer Person oder ihre Intelligenz/Fähigkeit. Die Terme  \alpha_{i} sind unter anderem als „unbeobachtete Heterogenität“, „latente Variable“ oder „individuelle Heterogenität“ bekannt.[2] [3]

Die beiden wichtigsten linearen Paneldatenmodelle sind das Fixed-Effects-Modell und das Random-Effects-Modell. Der zentrale Unterschied zwischen diesen beiden Modellen ist, welche Annahme an die Korrelation zwischen der individuellen Heterogenität  \alpha_i und den beobachteten erklärenden Variablen getroffen wird.

Beispiel[Bearbeiten]

Ein Beispiel für die Anwendung von Random- und Fixed-Effects-Modellen und ihren Schätzern findet man in der oben genannten Frage nach dem Einfluss von Bildung auf das Einkommen einer Person. Wie oben erwähnt wäre das jährliche Einkommen einer Person die erklärte Variable; erklärende Variablen wären zum einen die Bildung (gemessen in Jahren oder in abgeschlossenen Klassen/Kursen), deren Effekt gemessen werden soll. Daneben müssten noch alle Variablen in die Regression mit aufgenommen werden, die sowohl mit dem Einkommen als auch mit der Bildung korreliert sind. Exemplarisch wären hier das Alter, die Berufserfahrung oder die Bildung der Eltern zu nennen. Daneben ist es möglich, dass andere relevante Faktoren (zum Beispiel die Intelligenz, die Gesundheit oder die Werthaltung einer Person) nicht erfasst werden - es wird also individuelle Heterogenität bestehen. Eine mögliche zu schätzende Gleichung wäre

 \operatorname{Einkommen}_{it} = \alpha_{i} + \beta \operatorname{JahreBildung}_{it} + x'_{it}\gamma+ u_{it},

wobei x einen Vektor mit zusätzlichen Kontrollvariablen wie Alter, Erfahrung und ähnlichem darstellt. Die Variable  \operatorname{JahreBildung} umfasst dabei nicht nur die vor Berufsbeginn abgeschlossene Bildung, sondern auch später erworbene Abschlüsse.[4]  \alpha_{i} wird hierbei alle Effekte auffangen, die bei einem Individuum über die Zeit konstant sind, aber nicht als Kontrollvariablen in die Regression mit aufgenommen werden können, zum Beispiel weil sie nicht direkt beobachtbar sind. Ein Beispiel hierfür ist, wie bereits erwähnt, die Intelligenz der beobachteten Individuen. Die individuelle Intelligenz wird wahrscheinlich eine Auswirkung auf den Verdienst eines Individuums haben und wird auch mit der Bildung korreliert sein. Intelligenz kann aber nur schwer gemessen werden und folglich nur schwer als Kontrollvariable in die Regression mit aufgenommen werden. Ähnliches gilt für andere, unbeobachtete aber relevante Variablen, die gemeinsam die „individuelle Heterogenität“ bilden. Die Korrelation zwischen dieser Heterogenität und den erklärenden Variablen ist der zentrale Unterschied zwischen Random- und Fixed-Effects-Modellen. Besteht keine solche Korrelation, so wird das Random-Effects-Modell verwendet. Das Fixed-Effects-Modell kommt zum Einsatz, wenn die individuelle Heterogenität mit erklärenden Variablen korreliert ist.

Das Random-Effects-Modell[Bearbeiten]

Grundlagen[Bearbeiten]

Das Random-Effects-Modell (zur Abgrenzung manchmal auch random intercept model[5] genannt) macht die Annahme, dass die unbeobachtete Heterogenität orthogonal zu den erklärenden Variablen steht:

 E(\alpha_{i}|x_{it})=E(\alpha_{i})=0,

Darüber hinaus muss auch strikte Exogenität des Fehlerterms angenommen werden:

 E(u_{it}|x_{it},\alpha_{i})=0, \quad t=1,...,T. [6]

Unter diesen Annahmen kann die individuelle Heterogenität als ein weiterer Fehlerterm gesehen werden, d.h. das zu schätzende Modell kann umgeschrieben werden als

 y_{it}=x_{it}'\beta + z_i'\gamma + v_{it}

mit

 v_{it} = u_{it}+\alpha_{i}

Aufgrund der obigen Annahmen ist dann  E(v_{it}|x_{i})=0 für t=1,...,T.[7]

Das Random-Effects-Modell erfüllt also die Anforderung, dass der Fehlerterm der Regression und die erklärenden Variablen unkorreliert sind. Aus diesem Grund würde eine klassische Kleinste-Quadrate-Schätzung zu konsistenten Schätzern für \beta führen. Aufgrund der individuellen Heterogenität erfüllt das Random-Effects-Modell allerdings die Annahme der Unkorreliertheit der Fehlerterme nicht. Selbst wenn

 E(u_{it}^{2}) = \sigma^{2}_{u}

und

E(\alpha_{i}^{2}) = \sigma^{2}_{\alpha}

Konstanten sind und die idiosynkratischen Fehlerterme unkorreliert sind ( E(u_{it} \cdot u_{is})=0, t \neq s), wird zwischen den zusammengesetzten Fehlertermen des gleichen Individuums für verschiedene Zeitpunkte eine Korrelation bestehen:

E(v_{it}\cdot v_{is})= E((u_{it}+\alpha_{i})\cdot(u_{is}+\alpha_{i}))=E(\alpha_{i}^{2})=\sigma^2_\alpha.[8]

Aus diesem Grund wird die Varianz-Kovarianzmatrix eine  NT \times NT-Matrix sein, gegeben durch

 \Omega = \begin{pmatrix}
  \Omega_i & 0 & \cdots & 0 \\ 
  0 & \Omega_i & \ddots & \vdots \\
  \vdots & \ddots & \ddots & 0 \\
  0 & \cdots & 0 & \Omega_i
\end{pmatrix},

wobei die einzelnen Diagonalelemente gegeben sind durch T \times T-Matrizen

 \Omega_i = \begin{pmatrix}
  \sigma^2_u + \sigma^2_\alpha & \sigma^2_\alpha & \cdots & \sigma^2_\alpha \\ 
  \sigma^2_\alpha & \sigma^2_u + \sigma^2_\alpha & \ddots & \vdots \\
  \vdots & \ddots & \ddots & \sigma^2_\alpha\\
  \sigma^2_\alpha & \cdots & \sigma^2_\alpha & \sigma^2_u + \sigma^2_\alpha
\end{pmatrix}.

 \Omega ist also keine Diagonalmatrix, sondern eine Blockdiagonalmatrix. Die besondere Struktur mit nur zwei Parametern (\sigma^2_u und \sigma^2_\alpha) wird auch als Random-Effects-Struktur bezeichnet.[9]

Auf Basis dieses Modells können dann mehrere Schätzer hergeleitet werden, die konsistent und gegebenenfalls auch effizient sind.

Schätzer im Random-Effects-Modell[Bearbeiten]

Die Methode der Kleinsten Quadrate[Bearbeiten]

Wie oben ausgeführt, sind im Random-Effects-Modell der zusammengesetzte Fehlerterm und die erklärenden Variablen unkorreliert, weswegen die Methode der Kleinsten Quadrate zu konsistenten Schätzungen führt. Im Zusammenhang mit Paneldaten wird die Kleinste-Quadrat-Schätzung auch als „pooled OLS“ bezeichnet.[10]

Eine Matrix mit der Random-Effects-Struktur erfüllt allerdings die für den Satz von Gauß-Markov zentrale Annahme der Unkorreliertheit der Fehlerterme (die eine diagonale Varianz-Kovarianzmatrix mit konstantem Diagonalelement erfordert) nicht. Die gewöhnliche Kleinste-Quadrate-Schätzung (OLS) ist im Random-Effects-Modell deswegen nicht notwendigerweise effizient. Darüber hinaus sind die auf Basis der normalen OLS-Schätzung geschätzten Standardfehler nicht korrekt (da dabei die Korrelation über Zeit ignoriert wird). Für Inferenz und Hypothesentests müssten die Standardfehler also angepasst werden.[11]

Der Random-Effects-Schätzer[Bearbeiten]

Vergleich der Kleinste-Quadrate-Schätzung (rot) mit dem RE-Schätzer (blau), wenn die Annahmen des RE-Modells erfüllt sind. Sowohl der OLS als auch der RE-Schätzer sind um den wahren Parameterwert von 5 zentriert, der RE-Schätzer weist aber eine deutlich geringere Varianz auf.

Der Random-Effects-Schätzer („RE estimator“) schafft an dieser Stelle Abhilfe. Konkret handelt es sich dabei um den auf das Random-Effects-Modell angewandten „Feasible Generalised Least Squares“-Schätzer. Angenommen, die Varianz-Kovarianzmatrix \Omega wäre bekannt. Dann könnte das Modell transformiert werden, indem es auf beiden Seiten mit \Omega^{-1/2} multipliziert wird:

 \Omega^{-1/2} \cdot y=\Omega^{-1/2} \cdot X\cdot\beta + \Omega^{-1/2} \cdot v

Setzt man nun  \tilde{v}=\Omega^{-1/2} \cdot v , dann ist die Varianz-Kovarianzmatrix des Fehlerterms im solcherart transformierten Modell  E(\tilde{v} \cdot \tilde{v}'|X)= E(\Omega^{-1/2} \cdot v \cdot v' \cdot \Omega^{-1/2}|X)= \Omega^{-1/2} \cdot E(v \cdot v'|X) \cdot \Omega^{-1/2}

Da  E(v \cdot v'|X) = \Omega gilt, ist dann  E(\tilde{v} \cdot \tilde{v}'|X) = \Omega^{-1/2} \cdot \Omega \cdot \Omega^{-1/2} = I . Wäre die Varianz-Kovarianzmatrix also bekannt, könnte das Modell durch sie so transformiert werden, dass das transformierte Modell die Einheitsmatrix als Varianz-Kovarianzmatrix hätte. Diese Einheitsmatrix würde die Annahmen des Satzes von Gauß-Markov erfüllen, der Schätzer wäre also effizient. Dieses hypothetische Modell, das sich nicht nur auf Random-Effects-Modelle, sondern auf alle linearen Modelle mit Heteroskedastie und Autokorrelation anwenden lässt, ist als Verallgemeinerte Kleinste-Quadrat-Schätzung (Generalised Least Squares, GLS) bekannt.[12] Im Random-Effects-Modell ist die genaue Varianz-Kovarianzmatrix allerdings unbekannt, die GLS-Schätzung kann also nicht durchgeführt werden. Stattdessen kann aber der sogenannte „Feasible Generalised Least Squares“-Schätzer angewandt werden, eine zweistufige Prozedur.

Hierbei wird das zugrunde liegende Modell zunächst mit einer normalen OLS-Regression geschätzt, die, wie oben ausgeführt, zu konsistenten Schätzern führt. Auf Basis dieser OLS-Regression und ihrer Residuen können dann konsistente Schätzer  \widehat{\sigma^2_u} und  \widehat{\sigma^2_\alpha} berechnet[13] und mit ihnen eine geschätzte Varianz-Kovarianzmatrix  \widehat{\Omega} konstruiert werden.  \widehat{\Omega} wird dann benutzt, um das zugrundeliegende Modell zu transformieren:

 \widehat{\Omega}^{-1/2} \cdot y=\widehat{\Omega}^{-1/2} \cdot X\cdot\beta + \widehat{\Omega}^{-1/2} \cdot v.

Anschließend wird dieses transformierte Modell wieder mit einer OLS-Schätzung geschätzt, woraus sich der FGLS bzw. RE-Schätzer ergibt:

 \widehat{\beta^{RE}} = (X'\widehat{\Omega}^{-1}X)^{-1}X'\widehat{\Omega}^{-1}y. [14]

Der Random-Effects-Schätzer als Mitglied der FGLS-Familie weist auch die gleichen wünschenswerten Eigenschaften wie andere FGLS-Schätzer auf: Er ist asymptotisch äquivalent zum GLS-Schätzer und deswegen asymptotisch effizient.[15] Zur einfachen Implementierung des RE-Schätzers kann bei modernen Statistik-Programmen auf bereits programmierte Routinen zurückgegriffen werden.

Der Between-Schätzer[Bearbeiten]

Ein weiterer konsistenter Schätzer im Random-Effects-Modell ist der sogenannte „Between-Schätzer“. Dabei wird durch Bildung von Mittelwerten eine Art Querschnittsstruktur erzeugt:

 \bar{y_i} = \alpha + \bar{x_i}'\beta + (\alpha_i - \alpha) + \bar{u_i},

wobei alle Mittelwerte über die Zeit berechnet wurden, also zum Beispiel \textstyle \bar{y_{i}} = \tfrac 1T \sum_{t=1}^{T}y_{it} . Berechnet wird der Between-Schätzer dann durch eine OLS-Schätzung des in Mittelwerten ausgedrückten Modelles. Er ist konsistent, falls  \bar{x_i} und der zusammengesetzte Fehlerterm  \alpha_i - \alpha + \bar{u_i} unkorreliert sind. Im Random-Effects-Modell ist dies aufgrund der Orthogonalitätsannahme

 E(\alpha_{i}|x_{i})=E(\alpha_{i})=0

der Fall und der Between-Schätzer folglich konsistent.[16]

Potentielle Probleme[Bearbeiten]

Vergleich des FE- mit dem RE-Schätzer in einer Situation, in der die erklärenden Variablen mit der individuellen Heterogenität korreliert sind. Nur der FE-Schätzer ist um den wahren Parameterwert von 5 zentriert, der RE-Schätzer ist inkonsistent.

Die zentrale Annahme des Random-Effects-Modelles ist, dass die unbeobachtete individuelle Heterogenität nicht mit den anderen erklärenden Variablen korreliert ist. Falls jedoch  E(\alpha_{i}|x_{i}) \neq 0, so ist das Random-Effects-Modell nicht anwendbar, die Random-Effects-, OLS- und Between-Schätzer sind inkonsistent.

Das Fixed-Effects-Modell[Bearbeiten]

Grundlagen[Bearbeiten]

Das Fixed-Effects-Modell (kurz FE-Modell) und darauf aufbauende Schätzer ermöglichen es, auch dann die kausalen Effekte der erklärenden Variablen konsistent zu schätzen, wenn die individuelle, zeitkonstante Heterogenität mit den erklärenden Variablen korreliert ist.

Schätzer im Fixed-Effects-Modell[Bearbeiten]

Der Fixed-Effects/Within-Schätzer[Bearbeiten]

Die grundsätzliche Idee des Fixed-Effects-Schätzers ist es, die individuelle Heterogenität durch eine geeignete Transformation der Schätzgleichung aus dieser zu entfernen. Dabei wird zum einen die Panel- bzw. Mehrebenenstruktur der Daten ausgenutzt, zum anderen die Annahme, dass die individuelle Heterogenität fix, also eine für jedes Individuum spezifische Konstante ist.

Das zugrundeliegende Modell sei wiederum

 y_{it} = \alpha_{i} + x'_{it}\beta+ u_{it}.

Weiterhin gelte die Annahme der strikten Exogenität in Bezug auf u, d.h.

 E(u_{it}|x_{it},\alpha_{i})=0, t=1,...T.

Im Gegensatz zum Random-Effects-Modell kann jedoch  E(\alpha_{i}|x_{i}) \neq 0 sein. Trifft dies zu, so ist

 E(v_{it}\cdot x_{it})=E((u_{it}+\alpha_i)x_{it})=E(x_{it} \cdot \alpha_i) \neq 0

und eine gewöhnliche OLS- oder RE-Schätzung wird in diesem Fall nicht konsistent sein.

Eine Abhilfe ist der sogenannte Fixed-Effects-Schätzer (manchmal auch Within Estimator[17]). Die Idee hierbei ist, die über die Zeit konstante, individuums-spezifische Heterogenität dadurch zu eliminieren, dass von jeder Beobachtung der individuums-spezifische Durchschnitt über die Zeitperioden subtrahiert wird. Das zu schätzende Modell wird also zu

 y_{it}-\bar{y_{i}} = (x_{it} - \bar{x_{i}})'\beta + (u_{it} - \bar{u_{i}}),

wobei \textstyle \bar{y_{i}} = \tfrac 1T \sum_{t=1}^{T}y_{it} (und analog für die anderen Variablen) gilt. Da \textstyle \tfrac 1T \sum_{t=1}^{T}\alpha_{i}= \alpha_{i} gilt, fällt die individuums-spezifische Heterogenität (der „fixe Effekt“) aus dem Modell heraus.[18] Der FE-Schätzer ergibt sich dann durch eine gewöhnliche OLS-Schätzung des transformierten Modelles. Der FE- oder Within-Schätzer ist konsistent: Da  E(u_{it}|x_{it},\alpha_{i})=0, t=1,...T , ist im transformierten Modell  E(x_{it} - \bar{x_{i}})\cdot (u_{it} - \bar{u_{i}})=0 , d.h. die Fehlerterme und ihre Zeitmittelwerte sind nicht mit den erklärenden Variablen und ihren Zeitmittelwerten korreliert. Unter der Annahme, dass die Fehlerterme für eine Beobachtungseinheit über die Zeit hinweg eine konstante Varianz haben und nicht miteinander korreliert sind, ist der Within-Schätzer auch effizient.[19]

Weiter kann gezeigt werden, dass der Within-Schätzer asymptotisch normalverteilt ist. Unter der Annahme von Homoskedastie und keiner Autokorrelation der Fehlerterme kann die asymptotische Varianz des Schätzers berechnet werden als

 V(\hat{\beta})=\sigma^2_{u} \cdot [\sum_{i=1}^{N} \sum_{t=1}^{T} \ddot{x_{it}} \ddot{x_{it}}']^{-1}

Dabei ist  \textstyle \sigma^2_{u} die Varianz des Fehlerterms u,  \textstyle \ddot{x_{it}} = x_{it} - \bar{x_{i}} . Zur Schätzung der Varianz wird dann lediglich noch ein konsistenter Schätzer der Fehlertermvarianz benötigt. Ein solcher ist gegeben durch

 \hat{\sigma^2_{u}} = \tfrac 1{[N(T-1)-K]} \cdot \sum_{i=1}^{N} \sum_{t=1}^{T} \widehat{\epsilon_{it}}^2

Falls von der Homoskedastie-Annahme abgewichen werden soll, kann die Varianz auch durch einen „robusten“ Schätzer geschätzt werden. Dieser ist im Falle des Within-Schätzers

 V(\hat{\beta}) = [\sum_{i=1}^{N} \sum_{t=1}^{T} \ddot{x_{it}} \ddot{x_{it}}']^{-1} \sum_{i=1}^{N} \sum_{t=1}^{T} \sum_{s=1}^{T} \ddot{x_{it}} \ddot{x_{is}}' \widehat{\ddot{\epsilon_{it}}} \widehat{\ddot{\epsilon_{is}}}' [\sum_{i=1}^{N} \sum_{t=1}^{T} \ddot{x_{it}} \ddot{x_{it}}']^{-1}

[20]. Auf Basis der geschätzten Varianz können dann Hypothesentests durchgeführt und Konfidenzintervalle berechnet werden.

Anstatt der geschilderten Transformation des Modells durch Subtraktion der individuellen Durchschnitte über die Zeit, können auch andere Schätzer verwendet werden. Der sogenannte Least Squares Dummy Variable-Schätzer beispielsweise fügt den erklärenden Variablen des Modells noch Dummy-Variablen für jede Beobachtungseinheit hinzu; anschließend wird eine gewöhnliche OLS-Schätzung dieses erweiterten Modells durchgeführt. Mithilfe des Frisch-Waugh-Lovell-Theorems lässt sich zeigen, dass die daraus resultierenden Schätzer für die \beta-Koeffizienten identisch zu denen des FE-Schätzers sind. Darüber hinaus ergibt die LSDV-Regression auch Schätzungen für die individuellen Terme  \alpha_{i} . Diese sind allerdings nur dann konsistent, wenn die Anzahl der Zeitperioden groß ist.[21]

Der First Differences-Schätzer[Bearbeiten]

Eine weitere Möglichkeit, das Problem der individuellen Heterogenität mit Hilfe von Paneldaten zu umgehen, ist die Differenzenbildung, die zum First-Differences-Schätzer führt. Dabei wird von jeder Beobachtung die zeitlich eine Periode vorhergehende Beobachtung abgezogen:

 y_{it}-y_{it-1} = (x_{it}-x_{it-1})\beta + (u_{it}-u_{it-1}).

Da die individuelle Heterogenität als über die Zeit konstant angenommen wird, fällt sie hierbei heraus, und das Modell in Differenzen kann durch eine normale OLS-Schätzung geschätzt werden. Falls angenommen wird, dass die Fehlerterme in der Regression homoskedastisch und über die Zeit unkorreliert ist, ist der Within-Schätzer effizienter als der First-Differences-Schätzer. Unter der schwächeren Annahme, dass die ersten Differenzen der Fehlerterme über die Zeit unkorreliert sind, ist dagegen der First-Differences-Schätzer effizienter.[22]

Potentielle Probleme[Bearbeiten]

Ein weit verbreitetes Problem bei Schätzern im Fixed-Effects-Modell besteht, falls die zugrunde liegenden Daten mit einem Messfehler erhoben wurden. Fehlerbehaftete Datenerhebungen sind auch in normalen OLS-Schätzungen auf Basis von Querschnittsdaten ein Problem, das zu inkonsistenter Schätzung führen kann. Die dem Within-Schätzer zugrundeliegende Transformation kann diese Fehlerbehaftung noch verstärken.[23] Als Beispiel hierfür kann eine Studie des amerikanischen Ökonomen Richard B. Freeman aus dem Jahr 1984 genannt werden. Zu dieser Zeit wurden Fixed-Effects-Schätzungen oft verwendet, um den kausalen Effekt einer Gewerkschaftsmitgliedschaft auf den Verdienst eines Arbeitnehmers zu schätzen. Die zugrundeliegende Argumentation war, dass Arbeitnehmer, die einer Gewerkschaft beitreten, sich auch in anderen, unbeobachtbaren Eigenschaften von den Arbeitnehmern unterscheiden, die nicht Mitglied einer Gewerkschaft sind. Aufgrund dieser vermuteten systematischen Unterschiede boten sich Paneldaten und Fixed-Effects-Schätzer geradezu an. Freemans Ergebnisse zeigten jedoch, dass die Fixed-Effects-Ergebnisse aufgrund von fehlerbehafteten Datenerhebungen nach unten verzerrt sind, während gewöhnliche OLS-Schätzungen auf Basis von Querschnittsdaten nach oben verzerrt sind; beide Techniken ermöglichen in diesem Fall also keine konsistente Schätzung, jedoch können die Fixed-Effects-Ergebnisse als untere Grenze, die OLS-Ergebnisse als obere Grenze für den zugrundeliegenden Effekt angesehen werden.[24]

Eine mögliche Abhilfe für Probleme aufgrund von fehlerbehafteten Datenerhebungen ist das Anwenden einer Instrumentvariablenstrategie.[25] Wenn es zum Beispiel zwei Messungen einer Variablen gibt, kann eine hiervon als Instrument für die zweite Messung verwendet werden, was dann eine konsistente Schätzung des Effektes der doppelt gemessenen Variablen erlaubt.[26]

Ein weiteres Problem ist, dass die Berechnung auf Basis von Abweichungen vom Mittelwert nicht nur die unbeobachtbare individuelle Heterogenität bereinigt, sondern auch einen Teil der Variation in den erklärenden Variablen entfernt – es wird also sowohl „gute“ als auch „schlechte“ Variation aus dem Modell entfernt.[27] Am deutlichsten wird dies bei erklärenden Variablen, die über die Zeit konstant sind: Diese werden vom Within-Schätzer oder dem Differenzen-Schätzer komplett aus der Schätzgleichung entfernt.[28] Dies ist auch ein Problem für das eingangs erwähnte Beispiel der Regression von Einkommen auf Bildung: Die vor dem Berufsleben erworbene Bildung ist aus späterer Sicht eine Konstante, die verbliebene Variation im Modell beruht also vor allem auf später erworbenen Abschlüssen. Die Anwendbarkeit von Fixed-Effects-Schätzern auf dieses Modell wurde deswegen bereits in den 1980er Jahren bestritten.[29] In einer Arbeit aus dem Jahr 1981 haben Jerry A. Hausman und William E. Taylor einen Weg aufgezeigt, wie unter zusätzlichen Annahmen an die Daten auch im Fixed-Effects-Kalkül Koeffizienten für über die Zeit konstante Variablen geschätzt werden können.[30]

Vergleich beider Modelle[Bearbeiten]

Die Entscheidung, ob und welcher Schätzer des Random-Effects- oder des Fixed-Effects-Modelles angewandt werden soll, hängt von der Natur des zu Grunde liegenden Modells ab. Falls das zu Grunde liegende Modell die Fixed-Effects-Struktur (also eine Korrelation zwischen individueller Heterogenität und erklärenden Variablen) aufweist, so ist der Within-Schätzer konsistent und der Random-Effects-Schätzer inkonsistent. Besteht dagegen eine Random-Effects-Struktur, so sind sowohl Within- als auch Random-Effects-Schätzer konsistent, aber der Random-Effects-Schätzer ist effizienter, hat also eine kleinere Varianz und erlaubt damit eine genauere Schätzung. Für die Entscheidung, welches Modell vorliegt, besteht die Möglichkeit des Hausman-Testes. Dabei werden die Unterschiede zwischen den beiden Schätzern verglichen; fallen diese statistisch betrachtet groß aus, so wird dies als Anzeichen für das Vorliegen eines Fixed-Effects-Modell angesehen.[31]

Lineare Panelmodelle stoßen außerdem an ihre Grenzen, wenn die erklärte Variable in zeitverzögerter Form zugleich erklärende Variable ist, zum Beispiel als

 y_{it} = \gamma y_{it-1} + \alpha_{i} + x'_{it}\beta+ u_{it}.

In einem solchen Modell sind mit den herkömmlichen Schätzern auf Basis Linearer Panelmodelle keine konsistenten Schätzungen möglich. [32] In solchen Fällen muss deswegen auf Dynamische Paneldatenmodelle zurückgegriffen werden. Schätzmethoden sind hier der dem Fixed-Effects-Kalkül nahe Arellano-Bond-Schätzer (nach Manuel Arellano und Stephen Bond) und der dem Random-Effects-Kalkül ähnliche Bhargava-Sargan-Schätzer (nach Alok Bhargava und John Denis Sargan).

Literatur[Bearbeiten]

Anmerkungen[Bearbeiten]

  1. Für einen Überblick hierzu, siehe unter anderem David Card: Estimating the Return to Schooling: Progress on Some Persistent Econometric Problems, Econometrica, 69.5, September 2001, S. 1127–1160
  2. Wooldridge, Econometric Analysis of Cross Section and Panel Data, 2002, S. 251
  3. Denkbar wäre auch, als dritten unbeobachteten Term einen zwischen Personen konstanten, aber sich über die Zeit ändernden Term  \theta_t anzunehmen, der für unbeobachtete Variablen steht, die sich über die Zeit ändern, aber alle Individuen gleich betreffen, zum Beispiel die konjunkturelle Entwicklung.
  4. Siehe hierzu zum Beispiel Joshua D. Angrist und Whitney K. Newey: Over-Identification Tests in Earnings Functions with Fixed Effects, Journal of Business and Economic Statistics 9.3, S.321
  5. Cameron & Trivedi, Microeconometrics, 2005, S. 700
  6. Wooldridge, Econometric Analysis of Cross Section and Panel Data, 2002, S. 257
  7. Wooldridge, Econometric Analysis of Cross Section and Panel Data, 2002, S. 258
  8. Wooldridge, Econometric Analysis of Cross Section and Panel Data, 2002, S. 258f.
  9. Wooldridge, Econometric Analysis of Cross Section and Panel Data, 2002, S. 259
  10. Cameron & Trivedi, Microeconometrics, 2005, S. 702
  11. Cameron & Trivedi, 2005, Microeconometrics, S.703
  12. Für weitere Details, siehe Cameron & Trivedi, Microeconometrics, 2005, S. 82
  13. Für die genaue Berechnung siehe Wooldridge, Econometric Analysis of Cross Section and Panel Data, 2002, S. 260f.
  14. Cameron & Trivedi, Microeconometrics, 2005, S. 81f.
  15. Wooldridge, Econometric Analysis of Cross Section and Panel Data, 2002, S. 260
  16. Cameron & Trivedi, Microeconometrics, 2005, S. 703
  17. Cameron & Trivedi, Microeconometrics, 2005, S. 726
  18. Cameron & Trivedi, Microeconometrics, 2005, S.726
  19. Wooldridge, Econometric Analysis of Cross Section and Panel Data, 2002, S. 269f.
  20. Cameron & Trivedi, Microeconometrics, 2005, S. 727
  21. Cameron & Trivedi, Microeconometrics, 2005, S. 732f.
  22. Wooldridge, Econometric Analysis of Cross Section and Panel Data, 2002, S. 279–281
  23. Angrist & Pischke, Mostly Harmless Econometrics, 2009, S. 225
  24. Richard B. Freeman: Longitudinal Analyses of the Effects of Trade Unions, Journal of Labor Economics, 2.1, Januar 1984, S. 1–26
  25. Angrist & Pischke, Mostly Harmless Econometrics, 2009, S. 226f.
  26. Für Beispiele hiefür siehe zum Beispiel Orley Ashenfelter & Alan B. Krueger: Estimates of the Economic Returns to Schooling from a New Sample of Twins, American Economic Review, 84.5, 1994, S. 1157–1173 oder Andreas Ammermüller & Jörn-Steffen Pischke: Peer Effects in European Primary Schools: Evidence from the Progress in International Reading Literacy Study, Journal of Labor Economics, 27.3, 2009, S. 315–348
  27. Angrist & Pischke, Mostly Harmless Econometrics, 2009, S. 226
  28. Wooldridge, Econometric Analysis of Cross Section and Panel Data, 2002, S. 266
  29. siehe zum Beispiel Jerry A. Hausman und William E. Taylor, Panel Data and Unobservable Individual Effects, Econometrica, 49.6, 1981, S. 1377f.; Angrist & Newey, Over-Identification Tests in Earnings Functions with Fixed Effects, Journal of Business and Economic Statistics 9.3, dagegen argumentieren, dass auch die nachschulische Bildung erwachsener Männer in den USA noch einige Varianz aufweist und deswegen als zeitvariant aufgefasst werden kann.
  30. Siehe hierzu Jerry A. Hausman und William E. Taylor, Panel Data and Unobservable Individual Effects, Econometrica 49.6, 1981, S. 1377-1398
  31. Wooldridge, Econometric Analysis of Cross Section and Panel Data, 2002, S. 288
  32. Für das Beispiel des Within-Schätzers, siehe Cameron & Trivedi, Microeconometrics, 2005, S. 763f.