Varianzanalyse

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Als Varianzanalyse (ANOVA von englisch analysis of variance) bezeichnet man eine große Gruppe datenanalytischer und strukturprüfender statistischer Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen. Ihnen gemeinsam ist, dass sie Varianzen und Prüfgrößen berechnen, um Aufschlüsse über die hinter den Daten steckenden Gesetzmäßigkeiten zu erlangen. Die Varianz einer oder mehrerer Zielvariable(n) wird dabei durch den Einfluss einer oder mehrerer Einflussvariablen (Faktoren) erklärt. Die einfachste Form der Varianzanalyse testet den Einfluss einer einzelnen nominalskalierten auf eine intervallskalierte Variable, indem sie die Mittelwerte der abhängigen Variable innerhalb der durch die Kategorien der unabhängigen Variable definierten Gruppen vergleicht. Somit stellt die Varianzanalyse in ihrer einfachsten Form eine Alternative zum t-Test dar, die für Vergleiche zwischen mehr als zwei Gruppen geeignet ist.

Überblick[Bearbeiten]

Grundbegriffe[Bearbeiten]

Die abhängige Variable heißt Zielvariable:

Die unabhängige Variable nennt man Einflussvariable oder Faktor:

  • Die kategoriale Variable (= Faktor), die die Gruppen vorgibt. Ihr Einfluss soll überprüft werden, sie ist nominalskaliert.
  • Die Kategorien eines Faktors heißen dann Faktorstufen. Diese Bezeichnung ist nicht identisch mit jener bei der Faktorenanalyse.

Anzahl der Zielvariablen[Bearbeiten]

Je nachdem, ob eine oder mehrere Zielvariablen vorliegen, unterscheidet man zwei Formen der Varianzanalyse:

  • die univariate Varianzanalyse, nach der englischen Bezeichnung analysis of variance auch als ANOVA bezeichnet
  • die multivariate Varianzanalyse, nach der englischen Bezeichnung multivariate analysis of variance auch als MANOVA bezeichnet

Je nachdem, ob ein oder mehrere Faktoren vorliegen, unterscheidet man zwischen einfaktorieller (einfacher) und mehrfaktorieller (multipler) Varianzanalyse.

Anzahl der Untersuchungseinheiten[Bearbeiten]

Im einfachsten Fall werden aus jeder Faktorstufe gleich viele Beobachtungen betrachtet. Man spricht in diesem Fall auch von einer orthogonalen Varianzanalyse oder von einem balancierten Modell. Die Arbeit mit und Interpretation von Daten deren Faktorstufen unterschiedliche viele Elemente enthalten (z. B. auch fehlende Werte) ist schwieriger (vgl. unbalanciertes Modell).

Feste und zufällige Effekte[Bearbeiten]

Eine gebräuchliche Modellunterscheidung der Varianzanalyse wird danach vorgenommen, ob die Faktoren mit festen Effekten (fixed factors) oder Faktoren mit zufälligen Effekten (random factors) vorliegen.[1] Von festen Effekten spricht man, wenn die Einflussfaktoren in endlichen vielen Faktorstufen vorkommen und man diese alle erfasst hat bzw. die in der Untersuchung interessierende Aussage sich nur auf diese Faktorstufen bezieht. Von Modellen mit zufälligen Effekten spricht man, wenn man nur eine Auswahl aller möglichen Faktorstufen erfassen kann (vgl. hierzu auch Lineare Paneldatenmodelle).

Grundidee[Bearbeiten]

Die Gesamtvarianz lässt sich gut in Gruppen zerlegen, wenn die Variabilität zwischen den Faktorstufen groß, die Variabilität innerhalb derselben aber gering ist.

Die Verfahren untersuchen, ob (und gegebenenfalls wie) sich die Erwartungswerte der metrischen Zufallsvariablen in verschiedenen Gruppen (auch Klassen) unterscheiden. Mit den Prüfgrößen des Verfahrens wird getestet, ob die Varianz zwischen den Gruppen größer ist als die Varianz innerhalb der Gruppen. Dadurch kann ermittelt werden, ob die Gruppeneinteilung sinnvoll ist oder nicht bzw. ob sich die Gruppen signifikant unterscheiden oder nicht.

Wenn sie sich signifikant unterscheiden, kann angenommen werden, dass in den Gruppen unterschiedliche Gesetzmäßigkeiten wirken. So lässt sich beispielsweise klären, ob das Verhalten einer Kontrollgruppe mit dem einer Experimentalgruppe identisch ist. Ist beispielsweise die Varianz einer dieser beiden Gruppen bereits auf Ursachen (Varianzquellen) zurückgeführt, kann bei Varianzgleichheit darauf geschlossen werden, dass in der anderen Gruppe keine neue Wirkungsursache (z. B. durch die Experimentalbedingungen) hinzukam.

Siehe auch: Diskriminanzanalyse, Bestimmtheitsmaß

Voraussetzungen und Alternativen[Bearbeiten]

Die Zuverlässigkeit der Signifikanztests im Rahmen der Varianzanalyse hängt davon ab, inwieweit ihre Voraussetzungen erfüllt sind. Diese Voraussetzungen sind je nach Anwendung etwas unterschiedlich, allgemein gelten folgende:

  • Varianzhomogenität (Homoskedastizität): die Werte in den einzelnen Gruppen sollten gleiche Varianz aufweisen.
  • Normalverteilung der Vorhersagefehler (Residuen): die Residuen sollten aus einer normalverteilten Grundgesamtheit stammen.

Die Überprüfung erfolgt mit anderen Tests außerhalb der Varianzanalyse, die allerdings heute standardmäßig in Statistik-Programmen als Option mitgeliefert werden. Die Normalverteilung der Residuen kann unter anderem mit dem Shapiro-Wilk-Test überprüft werden, Varianzhomogenität mit dem Levene-Test.

Gegen Abweichungen von der Normalverteilungsannahme gelten Varianzanalysen als robust, vor allem bei größeren Stichprobenumfängen (s. Zentraler Grenzwertsatz). Inhomogene Varianzen stellen bei ungleichen Gruppengrößen ein Problem dar. Im Falle einfaktorieller ANOVAs kann in solch einem Fall gegebenenfalls der Brown-Forsythe-Test gerechnet werden. Ferner kommt gegebenenfalls eine Transformation der abhängigen Variable in Betracht, um die Varianzen der Gruppen anzugleichen, beispielsweise durch Logarithmierung. Wenn die Voraussetzungen nicht ausreichend erfüllt sind, bieten sich zudem verteilungsfreie, nichtparametrische Verfahren an, die robust sind, aber geringere Teststärke besitzen und andere Parameter testen als die ANOVA, da sie auf Rängen basieren.

Einfaktorielle ANOVA[Bearbeiten]

Bei einer einfaktoriellen Varianzanalyse untersucht man den Einfluss einer unabhängigen Variable (Faktor) mit k verschiedenen Stufen (Gruppen) auf die Ausprägungen einer Zufallsvariablen. Dazu werden die k Mittelwerte der Ausprägungen für die Gruppen miteinander verglichen, und zwar vergleicht man die Varianz zwischen den Gruppen mit der Varianz innerhalb der Gruppen. Weil sich die totale Varianz aus den zwei genannten Komponenten zusammensetzt, spricht man von Varianzanalyse. Die einfaktorielle ANOVA ist die Verallgemeinerung des t-Tests im Falle mehr als zwei Gruppen. Für k=2 ist sie äquivalent mit dem t-Test.

Voraussetzungen[Bearbeiten]

  • Die Fehlerkomponenten müssen normalverteilt sein. Fehlerkomponenten bezeichnen die jeweiligen Varianzen (Gesamt-, Treatment- und Fehlervarianz). Die Gültigkeit dieser Voraussetzung setzt gleichzeitig eine Normalverteilung der Messwerte in der jeweiligen Grundgesamtheit voraus.
  • Die Fehlervarianzen müssen zwischen den Gruppen (also den k Faktorstufen) gleich bzw. homogen sein (Homoskedastizität).
  • Die Messwerte bzw. Faktorstufen müssen unabhängig voneinander sein.

Beispiel[Bearbeiten]

Diese Form der Varianzanalyse ist angezeigt, wenn beispielsweise untersucht werden soll, ob Rauchen einen Einfluss auf die Aggressivität hat. Rauchen ist hier eine unabhängige Variable, welche in drei Ausprägungen (k=3 Faktorstufen) unterteilt werden kann: Nichtraucher, schwache Raucher und starke Raucher. Die durch einen Fragebogen erfasste Aggressivität ist die abhängige Variable. Zur Durchführung der Untersuchung werden die Versuchspersonen den drei Gruppen zugeordnet. Danach wird der Fragebogen vorgelegt, mit dem die Aggressivität erfasst wird.

Hypothesen[Bearbeiten]

Es sei \mu_i der Erwartungswert der abhängigen Variable in der i. Gruppe. Die Nullhypothese einer einfaktoriellen Varianzanalyse lautet:

\!
H_0: \mu_1 = \mu_2 = ... = \mu_k

Die Alternativhypothese lautet:


H_1: \exists i,j:\ \mu_i \neq \mu_j

Die Nullhypothese besagt demnach, dass zwischen den Erwartungswerten der Gruppen (die den Faktorausprägungen bzw. Faktorstufen entsprechen) kein Unterschied besteht. Die Alternativhypothese besagt, dass zwischen mindestens zwei Erwartungswerten ein Unterschied besteht. Wenn wir beispielsweise fünf Faktorstufen haben, dann ist die Alternativhypothese bestätigt, wenn sich mindestens zwei der Gruppenmittelwerte unterscheiden. Es können sich aber auch drei Erwartungswerte oder vier oder alle fünf deutlich voneinander unterscheiden.

Wird die Nullhypothese verworfen, liefert die Varianzanalyse also weder Aufschluss darüber, zwischen wievielen noch zwischen welchen Faktorstufen ein Unterschied besteht. Wir wissen dann nur mit einer bestimmten Wahrscheinlichkeit (siehe Signifikanzniveau), dass mindestens zwei Ausprägungen einen bedeutsamen Unterschied aufweisen.

Man kann nun fragen, ob es zulässig wäre, mit verschiedenen t-Tests jeweils paarweise Einzelvergleiche zwischen den Mittelwerten durchzuführen. Vergleicht man mit der Varianzanalyse nur zwei Gruppen (also zwei Mittelwerte), dann führen t-Test und Varianzanalyse zum gleichen Ergebnis. Liegen jedoch mehr als zwei Gruppen vor, ist die Überprüfung der globalen Nullhypothese der Varianzanalyse über paarweise t-Tests nicht zulässig - es kommt zur sogenannten Alphafehler-Kumulierung. Mit Hilfe multipler Vergleichstechniken kann nach einem signifikanten ANOVA-Ergebnis überprüft werden, bei welchem Mittelwertspaar der oder die Unterschiede liegen. Beispiele solcher Vergleichstechniken sind der Bonferroni-Test und der Scheffé-Test (vgl. auch Post-hoc-Test). Der Vorteil dieser Verfahren liegt darin, dass sie den Aspekt der Alphainflation berücksichtigen.

Grundgedanken der Rechnung[Bearbeiten]

  • Bei der Berechnung der Varianzanalyse berechnet man zunächst die beobachtete Gesamtvarianz in allen Gruppen. Dazu fasst man alle Messwerte aus allen Gruppen zusammen, errechnet den Gesamtmittelwert und die Gesamtvarianz.
  • Dann möchte man den Varianzanteil der Gesamtvarianz, der allein auf den Faktor zurückgeht, ermitteln. Wenn die gesamte beobachtete Varianz auf den Faktor zurückginge, dann müssten alle Messwerte in einer Faktorstufe gleich sein - dann dürften nur Unterschiede zwischen den Gruppen bestehen. Da alle Messwerte innerhalb einer Gruppe dieselbe Faktorausprägung aufweisen, müssten sie folglich alle den gleichen Wert haben, da der Faktor die einzige varianzgenerierende Quelle wäre. In der Praxis werden sich aber auch Messwerte innerhalb einer Faktorstufe unterscheiden. Diese Unterschiede innerhalb der Gruppen müssen also von anderen Einflüssen stammen (entweder Zufall oder sogenannten Störvariablen).
Um nun auszurechnen, welche Varianz allein auf die Ausprägungen des Faktors zurückgeht, stellt man seine Daten für einen Moment gewissermaßen „ideal“ um: Man weist allen Messwerten innerhalb einer Faktorstufe den Mittelwert der jeweiligen Faktorstufe zu. Somit macht man alle Werte innerhalb einer Faktorstufe gleich, und der einzige Unterschied besteht nun noch zwischen den Faktorstufen. Nun errechnet man mit diesen „idealisierten“ Daten erneut die Varianz. Diese kennzeichnet die Varianz, die durch den Faktor zustande kommt („Treatment-Varianz“).
Teilt man die Treatmentvarianz durch die Gesamtvarianz, erhält man den relativen Anteil der auf den Faktor zurückzuführenden Varianz.
  • Zwischen der Gesamtvarianz und der Treatmentvarianz besteht in aller Regel eine Diskrepanz - die Gesamtvarianz ist größer als die Treatmentvarianz. Die Varianz, die nicht auf den Faktor (das „Treatment“) zurückzuführen ist, bezeichnet man als Fehlervarianz. Diese beruht entweder auf Zufall oder anderen, nicht untersuchten Variablen (Störvariablen).
Die Fehlervarianz lässt sich berechnen, indem man seine Daten erneut umstellt: Man errechnet für jeden einzelnen Messwert dessen Abweichung vom jeweiligen Gruppenmittelwert seiner Faktorstufe. Daraus berechnet man erneut die gesamte Varianz. Diese kennzeichnet dann die Fehlervarianz.
Eine wichtige Beziehung zwischen den Komponenten ist die Additivität der Quadratsummen. Als Quadratsummen bezeichnet man den Teil der Varianzformel, der im Zähler steht. Lässt man also bei der Berechnung der Treatmentvarianz den Nenner (die Freiheitsgrade) weg, erhält man die Treatmentquadratsumme. Die Gesamtquadratsumme (also Gesamtvarianz ohne Nenner) ergibt sich aus der Summe von Treatment- und Fehlerquadratsumme.
  • Die letztendliche Signifikanzprüfung erfolgt über einen „gewöhnlichen“ F-Test. Man kann mathematisch zeigen, dass bei Gültigkeit der Nullhypothese der Varianzanalyse gleichzeitig gilt, dass Treatment- und Fehlervarianz gleich sein müssen. Mit einem F-Test kann man die Nullhypothese überprüfen, dass zwei Varianzen gleich sind, indem man den Quotienten aus ihnen bildet.
Im Falle der Varianzanalyse bildet man den Quotienten aus Treatmentvarianz, geteilt durch die Fehlervarianz. Dieser Quotient ist F-verteilt mit (k-1) Zählerfreiheitsgraden und k×(n-1) bzw. N-k Nennerfreiheitsgraden (k ist die Anzahl der Gruppen, N ist die Gesamtzahl aller Versuchspersonen, n ist die jeweilige Zahl der Versuchspersonen pro Faktorstufe).
In Tabellen der F-Verteilung kann man dann den entsprechenden F-Wert mit entsprechenden Freiheitsgraden nachschlagen und liest ab, wie viel Prozent der F-Verteilungsdichte dieser Wert „abschneidet“. Einigen wir uns beispielsweise vor der Durchführung der Varianzanalyse auf ein Signifikanzniveau von 5 %, dann müsste der F-Wert mindestens 95 % der F-Verteilung auf der linken Seite abschneiden. Ist dies der Fall, dann haben wir ein signifikantes Ergebnis und können die Nullhypothese auf dem 5 %-Niveau verwerfen.

Mathematisches Modell[Bearbeiten]

Das Modell in Effektdarstellung lautet:


X_{ij} = \mu + \alpha_{i} + \varepsilon_{ij},\quad i=1,\dots,k,\ j=1,\dots,n_{i}.

Darin sind:
Xij: Zielvariable; annahmegemäß in den Gruppen normalverteilt
  k: Anzahl der Faktorstufen des betrachteten Faktors
  ni: Stichprobenumfänge für die einzelnen Faktorstufen
  μ: arithmetisches Mittel der Erwartungswerte in den Gruppen
 αi: Effekt der i-ten Faktorstufe
εij: Störvariablen, unabhängig und normalverteilt mit Erwartungswert 0 und gleicher (unbekannter) Varianz σ2.

Für den Erwartungswert in der i. Gruppe schreibt man üblicherweise \mu_i=\mu + \alpha_i, und es gilt (Reparametrisierungsbedingung):

\sum_{i=1}^kn_i\alpha_i = 0.

Quadratsummen[Bearbeiten]

Die gesamte Variabilität, QST, ausgedrückt wie die gesamte quadratische Abweichung vom Mittelwert, lässt sich in zwei Teile zerlegen. Ein Teil bezieht sich auf die Gruppenzugehörigkeit, und der andere Teil, der Rest, wird dem Zufall zugeschrieben. Der erste Teil, QSA, lässt sich ausdrücken als die quadratische Abweichung der Mittelwerte vom Gesamtmittelwert der Gruppen. Der Rest, QSE, der die Unterschiede innerhalb der Gruppen betrifft, wird ausgedrückt als die gesamte Abweichung von den Mittelwerten in den Gruppen. Es gilt also:

QST=QSA + QSE .

Darin ist:

\!\,QST=\sum(X_{ij}-X..)^2,
\!\,QSA=\sum_i n_i(X_i.-X..)^2,

und

\!\,QSE=\sum_{i,j}(X_{ij}-X_i.)^2.

Die zwei Quadratsummen QSA und QSE sind stochastisch unabhängig.

Im Fall von k Gruppen mit gleichem Umfang n/k gilt unter der Nullhypothese außerdem:

QSA/\sigma^2 folgt einer Chi-Quadrat-Verteilung mit k-1 Freiheitsgraden,

und

QSE/\sigma^2 folgt einer Chi-Quadrat-Verteilung mit n-k Freiheitsgraden.

Prüfgröße[Bearbeiten]

Man definiert meistens auch noch die mittlere Quadratsummen:

MQSA=\frac 1{k-1}QSA,

und

MQSE=\frac 1{n-k}QSE.

Damit lässt sich die Prüfgröße definieren wie:

F=\frac{MQSA}{MQSE}.

Im Falle Gruppen gleicher Größe ist F unter der Nullhypothese also F-Verteilt mit k-1 Freiheitsgraden im Zähler und n-k Freiheitsgraden im Nenner.

Wenn die Prüfgröße signifikant wird, unterscheiden sich mindestens zwei Gruppen voneinander. In Post-Hoc-Tests kann dann berechnet werden, zwischen welchen einzelnen Gruppen der Unterschied liegt.

Beispielrechnung[Bearbeiten]

Bei dem folgenden Beispiel handelt es sich um eine einfache Varianzanalyse mit zwei Gruppen (auch Zwei-Stichproben F-Test). In einem Versuch erhalten zwei Gruppen (k=2) von jeweils 10 (n_1=n_2=10) Tieren unterschiedliche Nahrung. Nach einer gewissen Zeit wird ihre Gewichtszunahme mit folgenden Werten gemessen:

Gruppe 1: 45, 23, 55, 32, 51, 91, 74, 53, 70, 84
Gruppe 2: 64, 75, 95, 56, 44, 130, 106, 80, 87, 115

Es soll untersucht werden, ob die unterschiedliche Nahrung einen signifikanten Einfluss auf das Gewicht hat. Der Mittelwert und die Varianz (hier „Schätzwert“ , Stichprobenvarianz) der beiden Gruppen betragen

\bar{x}_1=57{,}8 \mbox{ und } s^2_1= \frac{1}{n_1-1} \sum_{i=1}^{n_1} (x_{1 i} - \bar{x}_1)^2 = 479{,}7
\bar{x}_2=85{,}2 \mbox{ und } s^2_2= \frac{1}{n_2-1} \sum_{i=1}^{n_2} (x_{2 i} - \bar{x}_2)^2 = 728{,}6

Weil n_1=n_2=10 lässt sich daraus berechnen:

MQSA=n_1(X_{1.}-X_{..})^2+n_2(X_{2.}-X_{..})^2=10\frac{(X_{1.}-X_{2.})^2}2=5(\bar{x}_1-\bar{x}_2)^2=3753{,}8

und

MQSE=\frac{(n_1-1) s_1^2 + (n_2-1) s_2^2}{n_1+n_2-2}=604{,}15

Das zugrunde liegende Wahrscheinlichkeitsmodell setzt voraus, dass die Gewichte der Tiere normalverteilt sind und pro Gruppe dieselbe Varianz aufweisen. Die zu testende Nullhypothese ist

H_0: „Die Mittelwerte der beiden Gruppen sind gleich“

Offensichtlich unterscheiden sich die Mittelwerte \bar{x}_1 und  \bar{x}_2. Diese Abweichung könnte jedoch auch im Bereich der natürlichen Schwankungen liegen. Um zu prüfen, ob die Unterscheidung signifikant ist, wird die Testgröße F berechnet.

F = \frac{MQSA}{MQSE}=\frac{3753{,}8}{604{,}15} \approx 6{,}21

Die Größe F ist nach dem zugrunde liegenden Modell eine Zufallsvariable mit einer F_{k-1,n-k}-Verteilung, wobei k die Anzahl der Gruppen (Faktorstufen) und n die Anzahl der Messwerte sind. Die Indizes werden als Freiheitsgrade bezeichnet. Der Wert der F-Verteilung für gegebene Freiheitsgrade (F-Quantil) kann in einer Fisher-Tafel nachgeschlagen werden. Dabei muss noch ein gewünschtes Signifikanzniveau (die Irrtumswahrscheinlichkeit) angegeben werden. Im vorliegenden Fall ist F_{1,18} \approx 4{,}41 das F-Quantil zur Irrtumswahrscheinlichkeit 5 %. Das heißt, dass bei allen Werten der Testgröße F bis 4,41 die Nullhypothese nicht abgelehnt werden kann. Da 6{,}21 > 4{,}41, kann die Nullhypothese bei den vorliegenden Werten abgelehnt werden.

Es kann also davon ausgegangen werden, dass die Tiere in den beiden Gruppen im Mittel wirklich ein unterschiedliches Gewicht aufweisen. Die Wahrscheinlichkeit, einen Unterschied anzunehmen, obwohl dieser nicht vorliegt, liegt bei unter 5 %.

Zweifaktorielle ANOVA[Bearbeiten]

Die zweifaktorielle Varianzanalyse berücksichtigt zur Erklärung der Zielvariablen zwei Faktoren (Faktor A und Faktor B).

Beispiel[Bearbeiten]

Diese Form der Varianzanalyse ist z. B. bei Untersuchungen angezeigt, welche den Einfluss von Rauchen und Kaffeetrinken auf die Nervosität darstellen wollen. Rauchen ist hier der Faktor A, welcher in z. B. drei Ausprägungen (Faktorstufen) unterteilt werden kann: Nicht-Raucher, leichter Raucher und Kettenraucher. Der Faktor B kann die täglich genutzte Menge Kaffee sein mit den Stufen: 0 Tassen, 1–3 Tassen, 4–8 Tassen, mehr als 8 Tassen. Die Nervosität ist die abhängige Variable. Zur Durchführung der Untersuchung werden Versuchspersonen über 12 Gruppen verteilt entsprechend der Kombinationen der Faktorstufen. Dabei wird die Messung der Nervosität durchgeführt, die metrische Daten liefert.

Grundgedanken der Rechnung[Bearbeiten]

Das Modell (für den Fall mit festen Effekten) in Effektdarstellung lautet:


X_{ijk} = \mu + \alpha_{i} + \beta_{j}+ (\alpha\beta)_{ij} + \varepsilon_{ijk}, \quad \varepsilon_{ijk} \sim N(0,\sigma^2), \quad i=1,...,I, \quad j=1,...,J, \quad k=1,...,K

Darin sind:

Xijk: Zielvariable; annahmegemäß in den Gruppen normalverteilt
I: Anzahl der Faktorstufen des ersten Faktors (A)
J: Anzahl der Faktorstufen des zweiten Faktors (B)
K: Anzahl der Beobachtungen pro Faktorstufe (hier für alle Kombinationen von Faktorstufen gleich)
αi: Effekt der i-ten Faktorstufe des Faktors A
βj: Effekt der j-ten Faktorstufe des Faktors B
(αβ)ij: Interaktion (Wechselwirkung) der Faktoren auf der Faktorstufenkombination (i,j).

Die Interaktion beschreibt einen besonderen Effekt, der nur auftritt, wenn die Faktorstufenkombination (i,j) vorliegt.

εijk: Störvariablen, unabhängig und normalverteilt mit Erwartungswert 0 und gleichen Varianzen.


Die totale Quadratsumme QST wird hier zerlegt in vier unabhängige Teile.

QST=QSA+QSB+QSAB+QSE\!.

Darin sind:

QST=\sum(X_{ijk}-X...)^2 die totale Quadratsumme,
QSE=\sum(X_{ijk}-X_{ij}.)^2 die restliche Quadratsumme,
QSAB=\sum(X_{ij}.-X_i..-X._j.+X...)^2 die Quadratsumme der Interaktion,
QSA=\sum(X_i..-X...)^2 die Quadratsumme der Faktor A und
QSB=\sum(X._j.-X...)^2 die Quadratsumme der Faktor B.

Die Erwartungswerte der Quadratsummen sind:

\!\,E(QSE)=IJ(K-1)\sigma^2
E(QSAB)=K\sum\limits_{i,j}((\alpha\beta)_{i,j})^2+(I-1)(J-1)\sigma^2
E(QSA)=JK\sum_i \alpha_i^2+(I-1)\sigma^2
E(QSB)=IK\sum_j \beta_j^2+(J-1)\sigma^2.

Die Quadratsummen dividiert durch \sigma^2 sind unter geeigneten Unterstellungen Chi-Quadrat-verteilt, und zwar:

\!\,QSE/\sigma^2 mit IJ(K-1) Freiheitsgraden
\!\,QSAB/\sigma^2 mit (I-1)(J-1) Freiheitsgraden, wenn \!\,(\alpha\beta)_{i,j}\equiv 0
\!\,QSA/\sigma^2 mit I-1 Freiheitsgraden, wenn \!\,\alpha_{i}\equiv 0
\!\,QSB/\sigma^2 mit J-1 Freiheitsgraden, wenn \!\,\beta_{j}\equiv 0

Die mittleren Quadratsummen ergeben sich bei Dividierung der Quadratsummen durch ihre Freiheitsgraden

MQSE=\frac{QSE}{IJ(K-1)}
MQSAB=\frac{QSAB}{(I-1)(J-1)}
MQSA=\frac{QSA}{I-1}
MQSB=\frac{QSB}{J-1}

Die zutreffende Prüfgrößen berechnen sich wie die Quotienten der mittleren Quadratsummen, mit MQSE als Nenner .


Man berechnet nun die Varianzen für die einzelnen Faktoren und die Varianz für die Wechselwirkung von A und B. Die Hypothese H0 lautet: Es gibt keine Wechselwirkung. Wieder wird die Hypothese mit der Prüfstatistik F berechnet. Diese setzt sich nun zusammen als der Quotient der durch die Wechselwirkung von A und B entstand und die Fehlervarianz. Man vergleicht nun mit den F-Quantilen nach Angabe eines gewünschten Signifikanzniveaus. Ist die Prüfgröße F größer als das Quantil (letzteres ist in einschlägigen Tabellen ablesbar), dann wird H0 verworfen, es gibt also eine Wechselwirkung zwischen den Faktoren A und B.

Tabelle[Bearbeiten]

In einer praktischen Analyse werden die Ergebnisse in einer Tabelle zusammengefasst:

Variationsquelle Quadratsumme Freiheitsgrade mittlere Quadratsumme F
Faktor A QSA I - 1 MQSA=QSA/(I-1) MQSA/MQSE
Faktor B QSB J-1 MQSB=QSB/(J-1) MQSB/MQSE
Interaktion QSAB (I-1)(J-1) MQSAB=QSAB/((I-1)(J-1)) MQSAB/MQSE
Error QSE IJ(K-1) MQSE=QSE/(IJ(K-1))
Total QST IJK-1

Mehrfaktorielle ANOVA mit mehr als zwei Faktoren[Bearbeiten]

Auch mehrere Faktoren sind möglich. Allerdings steigt der Datenbedarf für eine Schätzung der Modellparameter mit der Anzahl der Faktoren stark an. Auch die Darstellungen des Modells (z. B. in Tabellen) werden mit zunehmender Anzahl der Faktoren unübersichtlicher. Mehr als drei Faktoren können nur noch schwer dargestellt werden.

Einzelnachweise[Bearbeiten]

  1. Hans Friedrich Eckey: Multivariate Statistik: Grundlagen - Methoden - Beispiele. Dr. Th. Gabler Verlag; Auflage: 2002 (12. September 2002). ISBN 978-3409119696. S. 94.

Literatur[Bearbeiten]

  • Ludwig Fahrmeir u. a. (Hrsg): Multivariate statistische Verfahren. 2. überarbeitete Auflage. Walter de Gruyter, Berlin u. a. 1996, ISBN 3-11-013806-9.
  • Ludwig Fahrmeir u. a.: Statistik. Der Weg zur Datenanalyse. 2. verbesserte Auflage. Springer, Berlin u. a. 1999, ISBN 3-540-65053-9 (Springer-Lehrbuch).
  • Joachim Hartung, Bärbel Elpelt: Multivariate Statistik. Lehr- und Handbuch der angewandten Statistik. 6. unwesentlich veränderte Auflage. Oldenbourg, München u. a. 1999, ISBN 3-486-25287-9.
  • Klaus Backhaus u. a.: Multivariate Analysemethoden. Eine anwendungsorientierte Einführung. 11. überarbeitete Auflage. Springer, Berlin u. a. 2006, ISBN 3-540-27870-2 (Springer-Lehrbuch).

Siehe auch[Bearbeiten]

Weblinks[Bearbeiten]