Kollinearität

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Kollineare Abbildung)
Wechseln zu: Navigation, Suche
Dieser Artikel behandelt den Begriff der Mathematik; zum Begriff der Genetik siehe Colinearität.

Kollinearität ist ein mathematischer Begriff, der in der Geometrie und in der linearen Algebra verwendet wird.

In der Geometrie nennt man Punkte, die auf einer Geraden liegen, kollinear. Die Kollinearität von Punkten spielt sowohl in der affinen Geometrie als auch in der projektiven Geometrie eine wichtige Rolle, da sie eine Invariante bestimmter, als Kollineationen bezeichneter Abbildungen ist.

Kollineare Vektoren[Bearbeiten]

In der linearen Algebra bedeutet Kollinearität bei Vektoren eines Vektorraums, dass der von diesen Vektoren aufgespannte Untervektorraum die Dimension 1 hat. Falls nur zwei vom Nullvektor verschiedene Vektoren betrachtet werden, ist Kollinearität gleichbedeutend damit, dass – vereinfacht gesprochen – jeder der beiden Vektoren durch Multiplikation mit einem Skalar, d.h. einer (richtungslosen) Zahl \beta \in \R, in den jeweils anderen Vektor überführt werden kann und beide Vektoren damit gemäß folgender Gleichung linear abhängig sind:

\vec{a} = \beta \cdot \vec{b} \Leftrightarrow \vec a - \beta \cdot \vec b = \vec 0

Lässt man die beiden Vektoren am Koordinatenursprung beginnen, liegen beide auf einer Geraden, zeigen also beide in dieselbe (oder die exakt entgegengesetzte) Richtung und haben dabei nur verschiedene Längen.

Kollinearitätsuntersuchungen werden häufig bei der Untersuchung der Lagebeziehungen zwischen mehreren Geraden durchgeführt. Geraden mit kollinearen Richtungsvektoren sind entweder identisch oder „echt“ parallel.

Kollineare Matrizen[Bearbeiten]

Oft (besonders in der Statistik) wird der Begriff Kollinearität gebraucht, um Matrizen zu bezeichnen, die aus linear abhängigen oder fast linear abhängigen Vektoren gebildet werden. Diese Matrizen führen beim Gebrauch in numerischen Verfahren zu Problemen.

Eine Matrix aus linear abhängigen Vektoren ist singulär. Für quadratische Matrizen ist Rangreduktion oder lineare Abhängigkeit gleichbedeutend mit einer der Eigenschaften

Für die numerische Berechnung sind auch Grenzfälle („Fast-Kollinearität") von Bedeutung, bei denen einer oder mehrere Eigenwerte sehr nahe bei Null liegen. In Zusammenhang mit den Kehrwerten der Eigenwerte steht die Invertierung einer Matrix: Wenn einige Eigenwerte sehr groß sind und andere sehr nahe an Null liegen, kann die Inversion zu beliebig großen numerischen Fehlern führen. Ein Maß dafür ist die Kondition einer Matrix.

Bei singulären Matrizen tritt bei dem Versuch der Inversion eine Division durch Null auf; die Kondition einer singulären Matrix wäre sozusagen unendlich.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • Sponsel, Rudolf; Hain, Bernhard: Numerisch instabile Matrizen und Kollinearität in der Psychologie. Diagnose, Relevanz & Utilität, Frequenz, Ätiologie, Therapie. Ill-Conditioned Matrices and Collinearity in Psychology. Deutsch-Englisch. Übersetzt von Agnes Mehl. IEC-Verlag, Erlangen 1994. Hier besonders: Kapitel 6 von Dr. Bernhard Hain: Bemerkungen über Korrelationsmatrizen. ISBN 3-923389-03-5

Weblinks[Bearbeiten]

 Commons: Kollinearität – Sammlung von Bildern, Videos und Audiodateien
  • Überblicks- und Verteilerseite: Numerisch instabile Matrizen und Kollinearität in der Psychologie - Ill-Conditioned Matrices and Collinearity in Psychology - Diagnose, Relevanz & Utilität, Frequenz, Ätiologie, Therapie. http://www.sgipt.org/wisms/nis/nis_ueb0.htm