Abhängige und unabhängige Variable

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Statistisch abhängige (auch erklärte) Variablen und unabhängige (auch erklärende) Variablen sind Begriffe der empirischen Wissenschaften. Im Unterschied zu deterministischen Abhängigkeiten werden die statistischen Abhängigkeiten nicht durch determinierte Koeffizienten, sondern durch beobachtete Regressionskoeffizienten beschrieben.

In einem wissenschaftlichen Experiment wird eine willkürlich veränderliche Stellgröße, die unabhängige (auch exogene) Variable, vom Versuchsleiter gezielt verändert und die Auswirkungen dieser Manipulationen auf eine Messgröße, die abhängige (auch endogene) Variable, gemessen. Entsprechen die Messdaten den von einer Theorie vorhergesagten Zahlen, stützt dies die Aussage der Theorie.

Modellansatz[Bearbeiten]

In einem einfachen stochastischen linearen Modell

y_i = a + bx_i + e_i\,

bezeichnet y_i die Response (vgl. Stimulus-Response-Modell). Dieser wird auch interessierende Variable, endogene Variable oder Zielvariable genannt. Des Weiteren bezeichnet x die erklärende Variable, diese wird auch unabhängige Variable, Prädiktor-Variable oder exogene Variable genannt. e_i bezeichnet an dieser Stelle das sogenannte Residuum. Bezogen auf eine Messreihe enthält e_i alle stochastischen Fehlerkomponenten der Messung gegenüber dem idealen deterministischen Modell.

Typischerweise wählt man diejenige Variable als Response, die eine natürliche Variabilität aufweist. Ein einfaches Beispiel ist die Darstellung des Körpergewichts in kg (hier: Y) in Abhängigkeit von der Körpergröße in cm (hier: x). Man sieht, dass die Response Y und die Kovariable x nicht vertauschbar sind, da die Körpergröße ab einem bestimmten Alter unverändert bleibt.

X Y E
unabhängige Variable (Abszisse) abhängige Variable (Ordinate) variabler Rest, Residuum
Ursache Wirkung Nebenwirkung
Stellgröße Messgröße Fehler
Stimulus Response Nebenreaktion
erklärende Variable erklärte Variable unerklärter Anteil
exogene Variable endogene Variable residuale Variable
Prädiktor Zielvariable Toleranz
generierte Variable Interessierende Variable ignorierte Variable
Konstrukt Kriterium
Treatment Outcome Nebeneffekt
Regressor Regressand Residuum

Messung[Bearbeiten]

Zwar ist ihre Bedeutung umstritten, jedoch wird häufig darauf hingewiesen, dass eine Einheitsmethodenvarianz (engl. common-method variance) auftreten kann, wenn die abhängige und die unabhängige Variable mit derselben Methode gemessen wird, bspw. im selben Fragebogen.[1]

Regression[Bearbeiten]

Die Regression bezeichnet Regressoren als erklärende Größen (statistisch unabhängige Variable), die einen zu bestimmenden Einfluss auf die zu erklärende Größe (Regressand, statistisch abhängige Variable) ausüben. Der Regressand stellt ausschließlich die abhängige Variable dar. Ein Regressor gilt als signifikant, wenn sein Einfluss auf den Regressanden als nicht zufällig erkannt wird. Neben der Signifikanz lassen sich andere Eigenschaften wie Unabhängigkeit und Vollständigkeit formulieren.

Der Korrelationskoeffizient bezeichnet lediglich den Grad der Abhängigkeit zweier Variabler. Die unterstellte statistische Unabhängigkeit der Regressoren ist lediglich ein Modellansatz und muss mit Hilfe von statistischen Methoden bestätigt werden. Bei empirischen Daten besteht immer ein gewisser Grad an Multikollinearität, der nicht störend sein muss. Eine zulässige Grenze für "ernsthafte" Multikollinearität lässt sich jedoch nicht angeben.

Komplexe Abhängigkeiten wie z. B. die der Regressoren untereinander (Multikollinearität) oder der Residuen (Autokorrelation) führen zu Ineffizienzen von Methoden, die zur Bestimmung des Einflüsses von Regressoren herangezogen werden. Die Vollständigkeitsannahme fordert, dass alle relevanten erklärenden Variablen im Modell enthalten sind.

Erst die Regressionsanalyse oder die Varianzanalyse evaluieren den Zusammenhang der Variablen gegenüber einem zuvor ausgewählten Modell. In Erweiterung gegenüber dem Korrelationskoeffizienten wird mit den Regressionskoeffizienten die Richtung des Zusammenhangs im Modell eindeutig festgelegt.

Besonderheiten bei der Regressionsanalyse[Bearbeiten]

Regressoren sind ein Bestandteil der Regressionsanalyse und dürfen nicht ohne Weiteres als unabhängige Variablen betrachtet werden. Die Regressionsanalyse ist ein strukturprüfendes Verfahren und nimmt Unabhängigkeit an und trifft daneben auch andere Annahmen bezüglich der Regressoren. Ein Regressor ist damit mehr als eine unabhängige Variable, denn die Unabhängigkeit wird lediglich unterstellt! Ob ein Regressor tatsächlich diese Eigenschaft ausweist, kann erst im Laufe der Analyse festgestellt werden. Es ist also a priori (im Vorhinein) nicht klar, ob ein Regressor tatsächlich eine erklärende Variable darstellt und ob er eine signifikante Wirkung auf den Regressand ausübt.

Beispiele[Bearbeiten]

Beispiel 1: In einer Gleichung, zum Beispiel einer physikalischen Formel, betrachtet man oft, wie sich eine Variable verändern muss (die abhängige Variable), um die Gleichung zu erfüllen, wenn man eine andere Variable ändert (die unabhängige Variable).

Beispiel 2: Im Allgemeinen kann man davon ausgehen, dass unabhängig festzusetzende Werbeausgaben oder unabhängig festzusetzende Qualität von Produkten beide eine positive Wirkung auf ihren Absatz haben. Mit Hilfe von statistischen Analysen kann nun überprüft werden, ob ein Mehr an Werbung bzw. Qualität den Absatz signifikant steigen lässt und wie stark die (relative) Wirkung der beiden Regressoren Werbeausgaben und Qualität auf den Absatz ist.

Beispiel 3: An einem Radio befindet sich ein unbezeichneter Knopf. Eine mögliche Hypothese ist, dass mit ihm die Lautstärke geregelt werden kann. Vorhersage: Drehen des Knopfes in eine Richtung sollte das Radio leiser stellen, Drehen in die andere Richtung lauter. Im Experiment wird diese Vorhersage überprüft.

Beispiel 4: Hat man beispielsweise bei einem gleichförmig bewegten Körper die konstante Geschwindigkeit gegeben, dann kann man untersuchen, wie sich die zurückgelegte Wegstrecke (die abhängige Variable) bei Veränderung der Zeit (der unabhängigen Variablen) verhält. Umgekehrt kann auch untersucht werden, nach welcher Zeit (als abhängige Variable) eine bestimmte vorgegebene Strecke (als unabhängige Variable) zurückgelegt wurde.

Beispiel 5: Man will wissen, ob die Farbe einen Einfluss auf den Absatz eines Autos hat. Dann ist die Farbe die unabhängige Variable und der Absatz die abhängige Variable. Will man hingegen wissen, ob der Absatz die Farbe beeinflusst, dann ist der Absatz die unabhängige Variable und die Farbe die abhängige Variable.

Siehe auch[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Richardson, H. A.; Simmering, M. J.; Sturman, M. C. (2009): A tale of three perspectives: Examining post hoc statistical techniques for detection and correction of common method variance. Organizational Research Methods, Vol. 12, pp. 762–800