Intelligenzquotient

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel behandelt den differentialpsychologischen Fachbegriff des Intelligenzquotienten. Für allgemeine Informationen zum Thema Intelligenz siehe Intelligenz, für Kritik an diesem Konzept siehe Kritik am Intelligenzbegriff.
IQ-Tests sind so kalibriert, dass die Ergebnisse für eine hinreichend große Bevölkerungsstichprobe annähernd normalverteilt sind.

Der Intelligenzquotient (IQ) ist eine durch einen Intelligenztest ermittelte Kenngröße zur Bewertung des intellektuellen Leistungsvermögens im allgemeinen (allgemeine Intelligenz) oder innerhalb eines bestimmten Bereichs (z. B. Faktoren der Intelligenz) im Vergleich zu einer Referenzgruppe [1].

Die "bevölkerungsrepräsentative" Referenzgruppe kann alters- bzw. schulklassenspezifisch sein (v.a. bei Kindern und Jugendlichen) oder spezifisch für Bildungsgrade (z.B. Gymnasiasten oder Berufsgruppen) (vergleiche Normierung). Bei den heutigen Tests, die eine IQ-Norm verwenden, wird anhand der Verteilung der Testergebnisse einer hinreichend grossen Stichprobe der Normwert unter Annahme einer Normalverteilung der Intelligenz meist durch Normalrangtransformation ermittelt und in eine Skala mit dem Mittelwert 100 und der Standardabweichung 15 umgerechnet. Entsprechend einer Normalverteilung liegen rund 68 % der Personen dieser Referenzgruppe einen IQ im sogenannten Mittelbereich zwischen 85 und 115.

Unterschiede ergeben sich aus der Repräsentativität der Normierungsstichprobe für diese Referenzgruppe (Größe der Stichprobe, Repräsentativität beim Gewinnen der Personen). Bei der Interpretation des IQ muss die Art des Messverfahrens (z. B. Art des Intelligenztests) und das dahinterstehende Intelligenzkonzept sowie die für die Normierung verwendete Referenzgruppe beachtet werden, welche die Stabilität und die Generalisierbarkeit der Schätzung der Intelligenz einer Person beeinflussen. Die Normen müssen auch hinsichtlich der zeitlichen Stabilität geprüft und bei Veraltung neu ermittelt werden.

Berechnungen[Bearbeiten | Quelltext bearbeiten]

Historisch[Bearbeiten | Quelltext bearbeiten]

Alfred Binet, der 1905 mit dem Binet-Simon-Test den ersten brauchbaren Intelligenztest entwickelt hatte, gab die mentale Leistungsfähigkeit als Intelligenzalter an. Der Test bestand aus Aufgaben mit ansteigender Schwierigkeit, die möglichst trennscharf für die jeweiligen Altersgruppen lösbar sein sollten. Beispiel: Ein durchschnittlich entwickelter Achtjähriger sollte alle Aufgaben seiner Altersgruppe (und darunter) lösen können, nicht jedoch die Aufgaben der Neunjährigen. Schaffte ein Kind nicht alle Aufgaben seiner Altersgruppe, hatte es ein niedrigeres, schaffte es auch Aufgaben der höheren Altersgruppe, hatte es ein höheres „Intelligenzalter“.

William Stern setzte dieses Intelligenzalter ins Verhältnis zum Lebensalter und erfand so 1912 den Intelligenzquotienten.[2] Lewis M. Terman von der Universität Stanford entwickelte den von Goddard vom Französischen ins Englische übersetzten Simon-und-Binet-Quotienten weiter. Um die Kommastellen zu entfernen, multiplizierte er den Intelligenzalter-Lebensalter-Quotienten mit 100.

Modern[Bearbeiten | Quelltext bearbeiten]

Da das Intelligenzalter langsamer zunimmt als das Lebensalter, sinkt der IQ nach Sterns Formel beständig. Terman erkannte dieses Problem bei seiner Weiterentwicklung ebenfalls. Um diesem Problem zu begegnen, normierte er den Test für verschiedene Altersgruppen. Die Verteilung glich er für jedes Alter einer Normalverteilung an. Beim 1937 entwickelten Stanford-Binet-Test variiert die Standardabweichung je nach Alter zwischen 15 und 16 IQ-Punkten (vgl. Valencia und Suzuki, 2000, S. 5 ff.).[3]

Die ursprünglich nur für Kinder, speziell für Schulreifetests, entwickelte IQ-Berechnung wurde später von David Wechsler durch Anwendung der populationsbezogenen Skalierung mit dem Mittelwert 100 auf Erwachsene ausgedehnt. Für die heutige Abweichungs-IQ-Skala gilt ein Mittel von 100 und eine Standardabweichung (SD) von 15. Sie findet z. B. Anwendung in der Hamburg-Wechsler-Intelligenztestreihe[4]). Da der IQ in der Öffentlichkeit als "Label" von Personen z.B. hinsichtlich Stabilität und Universalität überschätzt wird, verwenden einige Tests bewusst andere Normskalen.

Umrechnungen[Bearbeiten | Quelltext bearbeiten]

Man kann auch andere Normenskalen festlegen, wie etwa den Prozentrang (Perzentile). Über den Bezug zur Normalverteilung lassen sich Werte aus anderen Skalierungen in eine IQ-Skala mit dem Mittelwert 100 ohne Informationsverlust umrechnen:

Dabei bedeuten

  • ermittelter Skalenwert im verwendeten Test
  • Mittelwert der verwendeten Skala
  • Standardabweichung der verwendeten Skala

Beispiel

Der IST-2000 verwendet die sogenannte Standardwert-Skala (SW), die einen Mittelwert von 100 und eine Standardabweichung von 10 aufweist. Hat eine Person einen Standardwert von 110 erzielt, lässt sich dieser wie folgt in einen IQ-Normwert umrechnen:
Eingesetzt:

Da 110 der Standardwertskala genau eine Standardabweichung über dem Mittelwert liegt, muss gleiches auch für den AW-IQ-Wert gelten. Und, wie berechnet, trifft dies mit einem Wert von 115 auch zu. Einem AW-IQ-Wert von 85, der genau eine Standardabweichung unter dem Mittelwert liegt, entspricht ein IST-Wert von 90 (vgl. dazu auch Lineare Transformation).

Zuverlässigkeit und Messfehler[Bearbeiten | Quelltext bearbeiten]

Bei der Interpretation von Ergebnissen sind der Messfehler und die in Kauf zu nehmende Irrtumswahrscheinlichkeit zu beachten (vgl. Konfidenzintervall). Letztere wird von der notwendigen Sicherheit der zu treffenden diagnostischen Entscheidung beeinflusst.

Im Jahr 2014 hatte der oberste Gerichtshof der USA darüber zu entscheiden, bis zu welchem IQ ein Täter als unzurechnungsfähig zu gelten habe und daher im Falle eines Todesurteils nicht hingerichtet werden dürfe. In diesem Prozess argumentierten die American Psychological Association und die American Association on Intellectual and Developmental Disabilities, dass IQ-Tests eine Fehlermarge von 10 Punkten nach oben und unten aufweisen.[5]

Die Intelligenztests müssen regelmässig neu normiert (bzw. die Gültigkeit der Normen überprüft) werden, um den Durchschnittswert bei 100 zu halten. Bis in die 1990er Jahre hatten die IQ-Tests in den Industrieländern einen stetig steigenden Durchschnitt gezeigt. Über die Ursache des „Flynn-Effekt“ herrscht keine Einigkeit, etwa eine gleichmäßiger ausgeprägte Schulbildung oder der informative Einfluss von Massenmedien. Die Vergleichbarkeit der Zahlenwerte ist ohne Kenntnis des zugrundeliegenden Tests und dessen Normierung nicht gegeben. Als Richtwert für die Überprüfung gelten 8 Jahre, der in der DIN 33430 für den Bereich Eignungsdiagnostik vorgeschlagen wird.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Jürgen Guthke: Ist Intelligenz messbar? Einführung in Probleme der psychologischen Intelligenzforschung und Intelligenzdiagnostik. 2. Auflage. Deutscher Verlag der Wissenschaften, Berlin 1980.
  • Walter Gutjahr: Die Messung psychischer Eigenschaften. Kiepenheuer und Witsch, Köln 1977, ISBN 3-462-01116-2.
  • Siegfried Lehrl: Arbeitsspeicher statt IQ. Vless, Ebersberg 1997, ISBN 3-88562-079-0.
  • Nicholas John MacKintosh: IQ and Human Intelligence. Oxford University Press, Oxford 1998, ISBN 0-19-852368-8.

Weblinks[Bearbeiten | Quelltext bearbeiten]

 Wiktionary: Intelligenzquotient – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. DORSCH Lexikon der Psychologie, Stichwort Intelligenzquotient
  2. Stern, W. (1912). Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern. Leipzig: Verlag von Johann Ambrosius Barth.
  3. R. R. Valencia, L. A. Suzuki: Intelligence Testing and Minority Students: Foundations, Performance Factors, and Assessment Issues. Sage, New York 2000
  4. vgl. P. G. Zimbardo: Psychologie. Springer, Heidelberg 1995 S. 529 ff.
  5. US Supreme Court strikes IQ cutoff for death penalty cases. Auf: nature.com vom 27. Mai 2014.