Basiswechsel (Vektorraum)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Der Basiswechsel oder die Basistransformation ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra. Man bezeichnet damit den Übergang zwischen zwei verschiedenen Basen eines endlichdimensionalen Vektorraums über einem Körper K. Dadurch ändern sich im Allgemeinen die Koordinaten der Vektoren und die Abbildungsmatrizen von linearen Abbildungen. Ein Basiswechsel ist somit ein Spezialfall einer Koordinatentransformation.

Der Basiswechsel kann durch eine Matrix beschrieben werden, die Basiswechselmatrix, Transformationsmatrix oder Übergangsmatrix genannt wird. Mit dieser lassen sich auch die Koordinaten bezüglich der neuen Basis ausrechnen. Stellt man die Basisvektoren der alten Basis als Linearkombinationen der Vektoren der neuen Basis dar, so bilden die Koeffizienten dieser Linearkombinationen die Einträge der Basiswechselmatrix.

Basiswechselmatrix[Bearbeiten]

Kommutatives Diagramm

Es sei V ein n-dimensionaler Vektorraum über dem Körper K (zum Beispiel dem Körper \mathbb{R} der reellen Zahlen). In V seien zwei geordnete Basen gegeben, B = ( b_1, \ldots, b_n ) und B' = ( b_1', \ldots, b_n' ). Die Basiswechselmatrix T_{B'}^B für den Basiswechsel von B nach B' ist eine n \times n-Matrix. Es handelt sich um die Abbildungsmatrix der Identitätsabbildung auf V bezüglich der Basen B im Urbild und B' im Bild:

T _{B'}^B = M_{B'}^{B}(\operatorname{id_V})

Man erhält sie, indem man die Vektoren der alten Basis B als Linearkombinationen der Vektoren der neuen Basis B{}' darstellt:

b_j = a_{1j} b_1{}' + a_{2j} b_2{}' + \dots + a_{nj} b_n{}'
 = \sum_{i = 1}^n a_{ij} b_i{}', \qquad j = 1, \dots, n

Die Koeffizienten a_{1j}, \dots, a_{nj} bilden die j-te Spalte der Basiswechselmatrix

 T _{B'}^B = \begin{pmatrix} a_{11} & \cdots  & a_{1j} & \cdots & a_{1n} \\ \vdots & & \vdots & & \vdots \\ a_{n1} & \cdots & a_{nj} & \cdots &  a_{nn} \end{pmatrix}

Diese Matrix ist quadratisch und invertierbar und somit ein Element der allgemeinen linearen Gruppe Gl\left(n,K\right). Ihre Inverse ( T_{B'}^{B} )^{-1} = T_B^{B'} beschreibt den Basiswechsel von B' zurück nach B.

Spezialfälle[Bearbeiten]

Ein wichtiger Spezialfall ist der Fall V = K^n, der Vektorraum stimmt also mit dem Koordinatenraum überein. In diesem Fall sind die Basisvektoren Spaltenvektoren


b_1 = \begin{pmatrix} b_{11} \\ \vdots \\ b_{n1} \end{pmatrix}, \dots,
b_j = \begin{pmatrix} b_{1j} \\ \vdots \\ b_{nj} \end{pmatrix}, \dots,
b_n = \begin{pmatrix} b_{1n} \\ \vdots \\ b_{nn} \end{pmatrix}, \quad
b_1' = \begin{pmatrix} b_{11}' \\ \vdots \\ b_{n1}' \end{pmatrix}, \dots,
b_j' = \begin{pmatrix} b_{1j}' \\ \vdots \\ b_{nj}' \end{pmatrix}, \dots,
b_n' = \begin{pmatrix} b_{1n}' \\ \vdots \\ b_{nn}' \end{pmatrix}, \quad

die sich zu Matrizen


  B = \begin{pmatrix} 
     b_{11} & \dots & b_{1j} & \dots & b_{1n} \\
     \vdots &       & \vdots &       & \vdots \\
     b_{i1} & \dots & b_{ij} & \dots & b_{in} \\
     \vdots &       & \vdots &       & \vdots \\
     b_{n1} & \dots & b_{nj} & \dots & b_{nn} 
      \end{pmatrix} \quad \text{ und } \quad
  B' = \begin{pmatrix} 
     b_{11}' & \dots & b_{1j}' & \dots & b_{1n}' \\
     \vdots  &       & \vdots  &       & \vdots  \\
     b_{i1}' & \dots & b_{ij}' & \dots & b_{in}' \\
     \vdots  &       & \vdots  &       & \vdots  \\
     b_{n1}' & \dots & b_{nj}' & \dots & b_{nn}' 
      \end{pmatrix}

zusammenfassen lassen, die hier der Einfachheit halber mit den gleichen Buchstaben wie die zugehörigen Basen bezeichnet werden. Die Bedingung

b_j = a_{1j} b_1{}' + a_{2j} b_2{}' + \dots + a_{nj} b_n{}'
 = \sum_{i = 1}^n a_{ij} b_i{}', \qquad j = 1, \dots, n

übersetzt sich dann zu

b_{kj}= \sum_{i = 1}^n a_{ij} b_{ki}{}' = \sum_{i = 1}^n b_{ki}{}' a_{ij} , \qquad k, j = 1, \dots, n,

das heißt,

B = B' \cdot T^B_{B'}.

Die Transformationsmatrix T^B_{B'} lässt sich somit durch

T^B_{B'} = (B')^{-1} \cdot B

berechnen, wobei (B')^{-1} die inverse Matrix der Matrix B' ist.

Insbesondere gilt: Ist B die Standardbasis, so gilt T^B_{B'} = (B')^{-1}. Ist B' die Standardbasis, so gilt T^B_{B'} = B. Wie im Vorangehenden wird hier die Basis B mit der Matrix identifiziert, die man erhält, indem man die Basisvektoren als Spaltenvektoren schreibt und diese zu einer Matrix zusammenfasst.

Koordinatentransformation[Bearbeiten]

Ein Vektor v \in V habe bezüglich der Basis B = (b_1, \dots, b_n) die Koordinaten x_1, \dots, x_n, d. h.

v = x_1 b_1 + x_2 b_2+ \dots + x_n b_n = \sum_i x_i \, b_i,

und bezüglich der neuen Basis B' = (b_1', \dots, b_n') die Koordinaten x_1', \dots, x_n', also

v = x_1{}' b_1{}' + x_2{}' b_2{}'+ \dots + x_n{}' b_n{}' =\sum_j x_j{}' \,b_j{}'.

Stellt man wie oben die Vektoren b_j der alten Basis als Linearkombination der neuen Basis dar, so erhält man

v = \sum_j x_j b_j = \sum_j x_j \sum_i  a_{ij} \,b_i{}'
= \sum_i \left(\sum_j a_{ij} \, x_j\right) b_i{}'

Dabei sind die a_{ij} die oben definierten Einträge der Basiswechselmatrix T_{B'}^B. Durch Koeffizientenvergleich erhält man

x_i{}' = \sum_{j=1}^n a_{ij} \, x_j,

bzw. in Matrizenschreibweise:

  \begin{pmatrix} x_1{}' \\ \vdots \\x_n{}' \end{pmatrix} =
 \begin{pmatrix} a_{11}  & \dots & a_{1n} \\
                 \vdots  & \ddots& \vdots \\
                 a_{n1}  & \dots & a_{nn} \end{pmatrix}
\begin{pmatrix} x_1 \\ \vdots \\x_n \end{pmatrix}

oder kurz:

x{}' = T_{B'}^B \,x

Basiswechsel bei Abbildungsmatrizen[Bearbeiten]

Die Darstellungsmatrix einer linearen Abbildung hängt von der Wahl der Basen im Urbild- und im Zielraum ab. Wählt man andere Basen, so erhält man auch andere Abbildungsmatrizen.

Kommutatives Diagramm der beteiligten Abbildungen. Mit A wird hier die lineare Abbildung von K^n nach V bezeichnet, die (x_1, \dots, x_n) auf x_1 a_1 + \dots + x_n a_n abbildet, etc.

Seien V ein n-dimensionaler und W ein m-dimensionaler Vektorraum über K und f \colon V \to W eine lineare Abbildung. In V seien die geordneten Basen A = (a_1, \dots, a_n) und A' = (a_1{}', \dots, a_n{}') gegeben, in W die geordneten Basen B = (b_1, \dots, b_m) und B' = (b_1{}', \dots, b_m{}'). Dann gilt für die Darstellungsmatrizen von f bezüglich A und B bzw. bezüglich A' und B':

 M_{B'}^{A'}(f)=T_{B'}^B\cdot M_B^A(f)\cdot T_A^{A'}

Man erhält diese Darstellung, indem man

 f = \operatorname{id}_W \circ f \circ \operatorname{id}_V

schreibt. Die Abbildungsmatrix der Verkettung ist dann das Matrizenprodukt der einzelnen Abbildungsmatrizen, wenn die Basen passend gewählt sind, das heißt: die Basis A' im Urbild von \operatorname{id}_V, die Basis A im Bild von \operatorname{id}_V und im Urbild von f, die Basis B im Bild von f und im Urbild von \operatorname{id}_W, und die Basis B' im Bild von \operatorname{id}_W. Man erhält also:

M_{B'}^{A'}(f) = M_{B'}^B(\operatorname{id}_W) \cdot M_B^A(f) \cdot M_A^{A'}(\operatorname{id}_V)

Ein wichtiger Spezialfall ist, wenn f \colon V \to V ein Endomorphismus ist und im Urbild und Bild jeweils dieselbe Basis B bzw. B' benutzt wird. Dann gilt:

 M_{B'}^{B'}(f)=T_{B'}^B\cdot M_B^B(f)\cdot T_B^{B'}

Setzt man T := T_{B'}^B, so gilt also

M_{B'}^{B'}(f) = T \cdot M_B^B(f) \cdot T^{-1}.

Die Abbildungsmatrizen M_{B'}^{B'}(f) und M_B^B(f) sind also ähnlich.

Beispiel[Bearbeiten]

Wir betrachten zwei Basen B = (b_1, b_2, b_3) und B' = (b_1', b_2', b_3') des  \mathbb{R}^3 mit


b_1 = \begin{pmatrix} 1 \\ 0 \\ 2 \end{pmatrix} , b_2 = \begin{pmatrix} 3 \\ 1 \\ 0 \end{pmatrix} , b_3 = \begin{pmatrix} 2 \\ 1 \\ 1 \end{pmatrix}

und


b_1' = \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} , b_2' = \begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix} , b_3' = \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}\,,

wobei die Koordinatendarstellung der Vektoren die Vektoren bezüglich der Standardbasis beschreibt.

Die Transformation der Koordinaten eines Vektors


v = x_1 b_1 + x_2 b_2 + x_3 b_3
  = x_1' b_1' + x_2' b_2' + x_3' b_3'

ergibt sich durch die Darstellung der alten Basisvektoren 
(b_1, b_2, b_3)
bezüglich der neuen Basis 
(b_1', b_2', b_3')
und deren Gewichtung mit (x_1, x_2, x_3).

Um die Matrix der Basistransformation T^B_{B'} = (a_{ij}) von B nach B' zu berechnen, müssen wir die drei linearen Gleichungssysteme


x_j = a_{1j} x_1' + a_{2j} x_2' + a_{3j} x_3'

nach den 9 Unbekannten  a_{ij} auflösen.

Dies kann mit dem Gauß-Jordan-Algorithmus für alle drei Gleichungssysteme simultan erfolgen. Dazu wird folgendes lineares Gleichungssystem aufgestellt:


\left( \begin{array}{c c c | c c c}
1 & 0 & 1 & 1 & 3 & 2 \\
0 & 1 & 1 & 0 & 1 & 1 \\
1 & 1 & 0 & 2 & 0 & 1
\end{array} \right)

Durch Umformen mit elementaren Zeilenoperationen lässt sich die linke Seite auf die Einheitsmatrix bringen und auf der rechten Seite erhält man als Lösung des Systems die Transformationsmatrix


T^B_{B'} = \begin{pmatrix}
\frac{3}{2} & 1 & 1 \\
\frac{1}{2} & -1 & 0 \\
-\frac{1}{2} & 2 & 1
\end{pmatrix}
.

Wir betrachten den Vektor v = 2b_1  - b_2 + 3b_3, also den Vektor der bezüglich der Basis B die Koordinaten

\begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}  = \begin{pmatrix} 2 \\ -1 \\ 3 \end{pmatrix}

besitzt. Um nun die Koordinaten bezüglich B' zu berechnen, müssen wir die Transformationsmatrix T^B_{B'} mit diesem Spaltenvektor multiplizieren:


\begin{pmatrix} x_1' \\ x_2' \\ x_3' \end{pmatrix}
=
\begin{pmatrix}
\frac{3}{2} & 1 & 1 \\
\frac{1}{2} & -1 & 0 \\
-\frac{1}{2} & 2 & 1
\end{pmatrix}
\begin{pmatrix} 2 \\ -1 \\ 3 \end{pmatrix}
=
\begin{pmatrix} 5 \\ 2 \\ 0 \end{pmatrix}
.

Also ist v = 5b_1' + 2b_2' + 0b_3'.

In der Tat rechnet man als Probe leicht nach, dass

2b_1  - b_2 + 3b_3 = 5b_1' + 2b_2' + 0b_3'

gilt.

Anwendungen[Bearbeiten]

Basiswechselmatrizen besitzen vielfältige Anwendungsmöglichkeiten in der Mathematik und Physik.

In der Mathematik[Bearbeiten]

Eine Anwendung von Basiswechselmatrizen in der Mathematik ist die Veränderung der Gestalt der Abbildungsmatrix einer linearen Abbildung, um die Rechnung zu vereinfachen.

Möchte man zum Beispiel die Potenz A^p einer n \times n-Matrix A mit einem Exponent p > 1 berechnen, so ist die Zahl der benötigten Matrizenmultiplikationen von der Größenordnung O(\log p). Ist A diagonalisierbar, so existieren eine Diagonalmatrix D und eine Basiswechselmatrix T \in Gl\left(n,K\right), sodass A=T\cdot D\cdot T^{-1} und somit

A^p = \left( T \cdot D \cdot T^{-1} \right)^p = T \cdot D^p \cdot T^{-1}

Die Zahl der für die Berechnung der rechten Seite benötigten Multiplikationen ist nur von der Größenordnung:

  • n\log p zur Berechnung von D^p,
  • n^2 zur Berechnung des Produkts D^p\cdot T^{-1}
  • sowie einer Matrixmultiplikation für das Produkt T\cdot(D^p T^{-1})

Da die Matrixmultiplikation von der Größenordnung O(n^{2,3727}) ist, erhalten wir eine Komplexität von O(n^{2,3727}+n\cdot\log(p)) anstelle von O(n^{2,3727}\cdot\log(p)).

In der Physik[Bearbeiten]

Eine Anwendung von Basiswechselmatrizen in der Physik findet bspw. in der Ähnlichkeitstheorie statt, um dimensionslose Kennzahlen zu ermitteln. Hierbei werden durch einen Basiswechsel einer physikalischen Größe neue Basisdimensionen zugeordnet. Die dimensionslosen Kennzahlen stellen dann genau das Verhältnis der physikalischen Größe zu seiner Dimensionsvorschrift dar.

Literatur[Bearbeiten]

  •  Gerd Fischer: Lineare Algebra: Eine Einführung für Studienanfänger. 13 Auflage. Vieweg, 2002, ISBN 3-528-97217-3.

Weblink[Bearbeiten]