Krummlinige Koordinaten

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Krummlinige, affine und Kartesische Koordinaten

Krummlinige Koordinaten sind Koordinatensysteme auf dem euklidischen Raum E^n, bei denen die Koordinatenlinien gekrümmt sein können und die diffeomorph zu kartesischen Koordinaten sind[1]. Das heißt, die Transformation zwischen kartesischen Koordinaten und krummlinigen Koordinaten muss lokal invertierbar sein, wobei die Abbildung wie auch die Umkehrabbildung stetig differenzierbar sein müssen.

Die am häufigsten verwendeten krummlinigen Koordinatensysteme, die beide zu den orthogonalen Koordinatensystemen zählen, sind:

Je nach Problemstellung sind Berechnungen in krummlinigen Koordinatensystemen einfacher als in kartesischen durchzuführen. Zum Beispiel sind physikalische Systeme mit Radialsymmetrie oft einfacher in Kugelkoordinaten zu behandeln.

Folgende Ausführungen beziehen sich speziell auf den dreidimensionalen euklidischen Raum, vieles davon lässt sich jedoch auf den n-dimensionalen Fall erweitern.

Inhaltsverzeichnis

Transformation von kartesischen Koordinaten[Bearbeiten]

Koordinaten eines Punktes im n-dimensionalen Raum sind ein Tupel aus n reellen Zahlen, die bezüglich eines speziellen Koordinatensystems bestimmt werden. Im Folgenden werden für einen Punkt die Koordinaten in zwei verschiedenen Koordinatensystemen betrachtet.

Die kartesischen Koordinaten x_i lassen sich als stetig differenzierbare Funktionen neuer Koordinaten u_i schreiben (direkte Transformation):

x_{1}=x_{1}\left( u_{1},u_{2},\ldots,u_{n} \right)\ ,     x_{2}=x_{2}\left( u_{1},u_{2},\ldots,u_{n} \right)\ ,   ...   x_{n}=x_{n}\left( u_{1},u_{2},\ldots,u_{n} \right)

Dies stellt ein Gleichungssystem dar, das invertierbar (also nach den u_i auflösbar) ist (inverse Transformation)

u_{1}=u_{1}\left( x_{1},x_{2},\ldots,x_{n} \right)\ ,     u_{2}=u_{2}\left( x_{1},x_{2},\ldots,x_{n} \right)\ ,   ...   u_{n}=u_{n}\left( x_{1},x_{2},\ldots,x_{n} \right)

wenn die inverse Funktionaldeterminante ungleich null oder unendlich ist:

\det\left(\underline{\underline{J}}^{-1}\right) = \det \frac{\partial (u_{1},u_{2},\ldots,u_{n})}{\partial (x_{1},x_{2},\ldots,x_{n})}\ne 0.

Die inverse Transformation muss ebenso wie die direkte Transformation stetig differenzierbar sein.

Für die Punkte, in denen die Transformation umkehrbar eindeutig ist, heißt die Transformation regulär, sonst singulär. Dann gilt: Ist ein Punkt P mit den kartesischen Koordinaten (x_{1},x_{2},\ldots ,x_{n}) gegeben, so können mit Hilfe der inversen Transformation eindeutig die Koordinaten (u_{1},u_{2},\ldots ,u_{n}), die krummlinigen Koordinaten von P, berechnet werden. Jeder reguläre Punkt des Raums kann eindeutig sowohl durch die \{x_{i}\} als auch äquivalent durch die \{u_{i}\} beschrieben werden.

Ein Satz von Transformationsgleichungen mit den oben beschriebenen Eigenschaften zusammen mit einem kartesischen Koordinatensystem definiert ein krummliniges Koordinatensystem.

Koordinatenflächen, -linien und -achsen[Bearbeiten]

hier qi statt ui: Koordinatenflächen, Koordinatenlinien und Koordinatenachsen (entlang der Basisvektoren eines ausgewählten Ortes)

Die Begriffe Koordinatenflächen, -linien und -achsen werden im Folgenden anhand des dreidimensionalen Raums anschaulich erläutert.

Koordinatenflächen erhält man, indem jeweils eine Koordinate festgehalten (u_k=\text{const}) und die beiden anderen variiert werden.

\vec{r}_{ij}(\alpha,\beta)=\vec{r}\,(u_i=\alpha,u_j=\beta,u_k=\text{const})   mit   i\neq j\neq k\neq i

Durch jeden nicht-singulären Punkt geht genau eine Fläche jeder Flächenschar u_k=\text{const}.

Koordinatenlinien erhält man, indem jeweils zwei Koordinaten festgehalten (u_i=\text{const}, \ u_j=\text{const} mit i\neq j) und die dritte variiert wird, d. h. als Schnittmenge zweier Koordinatenflächen für unterschiedliche Koordinaten.

\vec{r}_{k}(\gamma)=\vec{r}\,(u_i=\text{const},u_j=\text{const},u_k=\gamma)   mit   i\neq j\neq k\neq i

Obige Bedingung für die Funktionaldeterminante bedeutet, dass in jedem Punkt des 3-dimensionalen Raumes sich nur 3 Koordinatenlinien schneiden dürfen, da sonst dieser Punkt keine eindeutigen Koordinaten besitzt (Funktionaldeterminante gleich null).

Als Beispiel für eine Uneindeutigkeit zählt die z-Achse bei Kugelkoordinaten, an der sich alle \varphi=\text{const} Ebenen (\varphi ist der Azimutwinkel) schneiden; somit sind die Koordinaten von Punkten auf der z-Achse nicht eindeutig (z=r\cos\vartheta, aber \phi beliebig). Solche Punkte heißen singuläre Punkte der Transformation.

Schneiden sich die Koordinatenlinien unter rechten Winkeln, so heißt das Koordinatensystem orthogonal.

Die Koordinatenachsen sind als Tangenten an die Koordinatenlinien definiert. Da die Koordinatenlinien im Allgemeinen gekrümmt sind, sind die Koordinatenachsen nicht räumlich fest, wie es für kartesische Koordinaten gilt. Dies führt auf das Konzept der lokalen Basisvektoren, deren Richtung vom betrachteten Raumpunkt abhängt - im Gegensatz zu globalen Basisvektoren der kartesischen oder affinen Koordinaten.

Verschiedene Basen[Bearbeiten]

Um einen Vektor mittels Koordinaten darstellen zu können, ist eine Basis nötig. Im n-dimensionalen Raum besteht diese aus n linear unabhängigen Vektoren, den Basisvektoren. Jeder beliebige Vektor kann als Linearkombination der Basisvektoren dargestellt werden, wobei die Koeffizienten der Linearkombination die Komponenten des Vektors genannt werden.

Für echt krummlinige (also nicht-geradlinige) Koordinaten variieren Basisvektoren und Komponenten von Punkt zu Punkt, weshalb die Basis als lokale Basis bezeichnet wird. Die Ortsabhängigkeit eines Vektorfeldes verteilt sich auf die Koordinaten sowie auf die Basisvektoren. Im Gegensatz dazu zeichnen sich globale Basen dadurch aus, dass die Basisvektoren in jedem Punkt identisch sind, was nur für lineare bzw. affine Koordinaten (die Koordinatenlinien sind geradlinig, aber im Allgemeinen schiefwinklig) möglich ist. Die Ortsabhängigkeit eines Vektorfeldes steckt bei geradlinigen Koordinatensystemen allein in den Koordinaten.

Um Basisvektoren mit einem Koordinatensystem zu verknüpfen gibt es zwei gebräuchliche Methoden:

  • kovariante Basisvektoren: Tangential an die Koordinatenlinien, d. h. kollinear zu den Koordinatenachsen
  • kontravariante Basisvektoren: Normal zu den Koordinatenflächen

Die beiden Klassen von Basisvektoren sind dual bzw. reziprok zueinander. Diese beiden Basen bezeichnet man als holonome Basen. Sie unterscheiden sich in ihrem Transformationsverhalten unter Koordinatenwechsel. Dabei sind die Transformationen invers zueinander.

An jedem Punkt der betrachteten Mannigfaltigkeit existieren gleichzeitig beide Basen. Somit kann ein beliebiger Vektor als Linearkombination entweder der kovarianten Basisvektoren oder der kontravarianten Basisvektoren dargestellt werden. Dabei werden stets kontravariante Komponenten a_{u_{i}} mit kovarianten Basisvektoren \vec{b}_{u_{i}} kombiniert und kovariante Komponenten a_{u_{i}}^{\,*} mit kontravarianten Basisvektoren \vec{b}_{u_{i}}^{\,*}.

\vec{a}=\sum\limits _{i=1}^{n}a_{u_{i}}\vec{b}_{u_{i}}=\sum\limits _{i=1}^{n}a_{u_{i}}^{\,*}\vec{b}_{u_{i}}^{\,*}

Diese kreuzweise Paarung (kontra-ko bzw. ko-kontra) sorgt dafür, dass der Vektor \vec{a} unter Koordinatentransformation invariant ist, da die Transformationen von Komponenten und Basisvektoren invers zueinander sind und sich gegenseitig aufheben. Diese Eigenschaft ist für den Begriff eines Vektors in der Physik essentiell: In der Physik müssen Gesetzmäßigkeiten unabhängig vom speziellen Koordinatensystem gelten. Aus physikalischer Sicht muss ein Vektor, der z. B. die Geschwindigkeit eines Teilchens beschreibt, unabhängig vom gewählten Koordinatensystem sein.

Man spricht von einem kontravarianten Vektor (besser: kontravarianter Koordinatenvektor), wenn die Komponenten kontravariant und die Basisvektoren kovariant sind. Analog spricht man von einem kovarianten Vektor, wenn die Komponenten kovariant und die Basisvektoren kontravariant sind.

Kovariante Basis[Bearbeiten]

Die kovarianten Basisvektoren schmiegen sich in jedem Punkt tangential an die Koordinatenlinien an.

Normierte und natürliche Basisvektoren[Bearbeiten]

Die Tangenteneinheitsvektoren an die Koordinatenlinien bilden eine Basis, bestehend aus kovarianten Basisvektoren:

\vec{e}_{u_{i}}=\frac{\frac{\partial \vec{r}}{\partial u_{i}}}{\left| \frac{\partial \vec{r}}{\partial u_{i}} \right|}

Diese Einheitsvektoren haben im Allgemeinen eine vom Ort abhängige Richtung \vec{e}_{u_{i}}=\vec{e}_{u_{i}}\left( u_{1},u_{2},\ldots,u_{n} \right).

Man definiert die Maßstabsfaktoren h_{u_{i}} durch

h_{u_{i}}:=\left| \frac{\partial \vec{r}}{\partial u_{i}} \right|,   somit \displaystyle\vec{e}_{u_{i}}=\frac{1}{h_{u_{i}}}\frac{\partial \vec{r}}{\partial u_{i}}

Die unnormierten Vektoren bilden die natürliche Basis, aus der man durch Normierung die unitäre Basis erhält (Einheitsvektoren). Die Vektoren der natürlichen Basis werden hier mit \vec{b}_{u_i} bezeichnet, die Vektoren der normierten Basis durch \vec{e}_{u_i}.

\vec{b}_{u_{i}}=\frac{\partial\vec{r}}{\partial u_{i}}=h_{u_{i}}\vec{e}_{u_{i}}

Kontravariante Komponenten: Vektoren als Linearkombination der kovarianten Basisvektoren[Bearbeiten]

Mit der neuen Basis lassen sich nun alle Vektoren \vec{a} durch die Basisvektoren der kovarianten Basis \vec{e}_{u_{i}} (normiert) bzw. \vec{b}_{u_{i}} (unnormiert = natürliche Basisvektoren) ausdrücken:

\vec{a}=\sum\limits _{i=1}^{n}{a_{u_{i}}\vec{e}_{u_{i}}}=\sum\limits _{i=1}^{n}{\tilde{a}_{u_{i}}\vec{b}_{u_{i}}}\quad\text{mit}\quad\tilde{a}_{u_{i}}=\frac{a_{u_{i}}}{h_{u_{i}}},\quad\vec{b}_{u_{i}}=h_{u_{i}}\vec{e}_{u_{i}}

Dabei ist a_{u_{i}} bzw. \tilde{a}_{u_{i}} die (kontravariante) Vektorkomponente, die in Richtung der u_{i}-Koordinatenlinie zeigt, a_{u_{i}} bezüglich der normierten Basis und \tilde{a}_{u_{i}} bezüglich der natürlichen Basis. In der Tensoranalysis wird \tilde{a}_{u_{i}} mit hochgestelltem Index a^{i} geschrieben.

Die Länge einer Vektorkomponente {a_{u_{i}}\vec{e}_{u_{i}}}={\tilde{a}_{u_{i}}\vec{b}_{u_{i}}} entspricht im Fall der normierten Basis dem Betrag der Koordinate a_{u_{i}}, im Fall der natürlichen Basis dem Produkt aus dem Betrag der Koordinate \tilde{a}_{u_{i}} und der Länge des Basisvektors \vec{b}_{u_{i}}:

|a_{u_{i}}|=|a_{u_{i}}\vec{e}_{u_{i}}|=|\tilde{a}_{u_{i}}\vec{b}_{u_{i}}|=|\tilde{a}_{u_{i}}|\,|\vec{b}_{u_{i}}|=|\tilde{a}_{u_{i}}|\,|h_{u_{i}}|

Beschreibt ein Vektor eine physikalische Größe, so steckt im unnormierten Fall nicht nur die Länge sondern auch die physikalische Dimension teils in den Koordinaten und teils in den natürlichen Basisvektoren, was bei konkreten Rechnungen umständlich sein kann. Bei normierter Basis hingegen ist die physikalische Dimension rein auf die Koordinate beschränkt. Die Koordinaten a_{u_{i}} heißen deshalb physikalische Koordinaten und die normierten Basisvektoren \vec{e}_{u_{i}} heißen auch physikalische Basisvektoren.

Zur Abgrenzung heißen die Koordinaten \tilde{a}_{u_{i}} deshalb holonome Koordinaten und die natürlichen Basisvektoren \vec{b}_{u_{i}} heißen auch holonome Basisvektoren oder einfach kontravariante Koordinaten und kovariante Basisvektoren.

Transformationsverhalten von Basisvektoren und Koordinaten, Jacobi-Matrix[Bearbeiten]

Aus der Definition der natürlichen Basisvektoren folgt für die Transformation von den Koordinaten \{u_i\} nach \{x_i\} die einfache Transformationsformel:

 \vec{b}_{u_{k}}=\frac{\partial\vec{r}}{\partial u_{k}}=\sum_{j}\frac{\partial x_{j}}{\partial u_{k}}\frac{\partial\vec{r}}{\partial x_{j}}=\sum_{j}\frac{\partial x_{j}}{\partial u_{k}}\vec{e}_{x_{j}}

Die natürlichen Basisvektoren zeigen ein sehr einfaches Transformationsverhalten. Für die normierten Basisvektoren enthält die Transformationsformel zusätzliche Faktoren h_{u_{i}}:

\vec{b}_{u_{k}}=\sum_{j}\frac{\partial x_{j}}{\partial u_{k}}\vec{e}_{x_{j}}\quad\Longrightarrow\quad h_{u_{k}}\vec{e}_{u_{k}}=\sum_{j}\frac{\partial x_{j}}{\partial u_{k}}h_{x_{j}}\vec{e}_{x_{j}}

Ein beliebiger Vektor \vec{a} muss sowohl in den alten, wie auch den neuen Koordinaten darstellbar sein:

\vec{a}=\sum_{i}\tilde{a}_{x_{i}}\vec{e}_{x_{i}}=\sum_{i,k}\tilde{a}_{x_{i}}\delta_{ik}\vec{e}_{x_{k}}=\sum_{i,j,k}\tilde{a}_{x_{i}}\frac{\partial u_{i}}{\partial x_{j}}\frac{\partial x_{j}}{\partial u_{k}}\vec{e}_{x_{k}}=\sum_{i,j}\tilde{a}_{x_{i}}\frac{\partial u_{i}}{\partial x_{j}}\vec{b}_{u_{j}}=\sum_{j}\tilde{a}_{u_{j}}\vec{b}_{u_{j}}

Somit erhält man das Transformationsverhalten der Koordinaten:

\tilde{a}_{u_{j}}=\sum_{i}\tilde{a}_{x_{i}}\frac{\partial u_{i}}{\partial x_{j}}\quad\Longrightarrow\quad\frac{a_{u_{j}}}{h_{u_{j}}}=\sum_{i}\frac{a_{x_{i}}}{h_{x_{i}}}\frac{\partial u_{i}}{\partial x_{j}}

Während die Transformation der (kovarianten) Basisvektoren mittels der Jacobi-Matrix J_{kj}=\tfrac{\partial x_{j}}{\partial u_{k}} durchzuführen ist, muss bei der Transformation der (kontravarianten) Koordinaten die inverse Jacobi-Matrix J^{-1}_{kj}=\tfrac{\partial u_{j}}{\partial x_{k}} angewandt werden.

In der Tensoranalysis definiert man einen Vektor über obiges Transformationsverhalten. Insofern ist der Ortsvektor \vec{r} selbst kein Vektor, das Ortsvektordifferential \textstyle \mathrm{d}\vec{r}=\sum_{i}\vec{b}_{u_{i}}\mathrm{d}u_{i} aber schon.

Die Jacobi-Matrix der Koordinatentransformation von kartesischen in krummlinige Koordinaten ist identisch mit der Matrix, die von den natürlichen Basisvektoren als Spalten gebildet wird:

\underline{\underline{J}}=\frac{\partial(x_{1},x_{2},\ldots,x_{n})}{\partial(u_{1},u_{2},\ldots,u_{n})}=\left(\begin{array}{cccc}
\partial x_{1}/\partial u_{1} & \partial x_{1}/\partial u_{2} & \ldots & \partial x_{1}/\partial u_{n}\\
\partial x_{2}/\partial u_{1} & \partial x_{2}/\partial u_{2} & \ldots & \partial x_{2}/\partial u_{n}\\
\vdots & \vdots &  & \vdots\\
\partial x_{n}/\partial u_{1} & \partial x_{n}/\partial u_{2} & \ldots & \partial x_{n}/\partial u_{n}
\end{array}\right)=\left(\begin{array}{cccc}
| & | &  & |\\
\vec{b}_{u_{1}} & \vec{b}_{u_{2}} & \ldots & \vec{b}_{u_{n}}\\
| & | &  & |
\end{array}\right)\equiv[\vec{b}_{u_{1}},\vec{b}_{u_{2}},\ldots,\vec{b}_{u_{n}}]

Die Bedingung \det\left(\underline{\underline{J}}^{-1}\right) \ne 0 für die inverse Funktionaldeterminante lässt sich anhand folgender Beziehung erklären:

\vec{e}_{x_{k}}=\sum_{j}\frac{\partial u_{j}}{\partial x_{k}}\vec{b}_{u_{j}}=\sum_{j}(J^{-1})_{kj}\vec{b}_{u_{j}}

Dies entspricht einer inhomogenen linearen Gleichung \vec{b}=\underline{\underline{A}}\vec{v} für den Vektor \vec v. D. h. die Unbekannten \vec{v} sind die Basisvektoren der krummlinigen Koordinaten \{\vec{b}_{u_{j}}\}. Das Gleichungssystem ist nur dann eindeutig lösbar, wenn der Kern der Matrix \underline{\underline{A}} nulldimensional ist bzw. die Zeilen- oder Spaltenvektoren linear unabhängig sind. Dies ist dazu äquivalent, dass die Determinante \det\underline{\underline{A}} ungleich Null ist. Dann sind die Unbekannten eindeutig bestimmt, d. h. an jedem Punkt existiert genau eine definierte Basis \{\vec{b}_{u_{j}}\}.

Analog entspricht die duale Basis \{\vec{b}_{u_i}^* \} einer Matrix, die genau das Inverse der obigen Matrix ist.

Metrischer Tensor und Gramsche Determinante[Bearbeiten]

Die Skalarprodukte zwischen den natürlichen Basisvektoren definieren die Komponenten des metrischen Tensors bzw. Fundamentaltensors g:

g_{ij}=\vec{b}_{u_{i}}\cdot\vec{b}_{u_{j}}=h_{u_{i}}h_{u_{j}}\vec{e}_{u_{i}}\cdot\vec{e}_{u_{j}}=h_{u_{i}}h_{u_{j}}\cos\!\left(\sphericalangle(\vec{e}_{u_{i}},\vec{e}_{u_{j}})\right)

Man beachte, dass der metrische Tensor wegen der Kommutativität des Skalarprodukts symmetrisch ist:

g_{ij}=\vec{b}_{u_{i}}\cdot\vec{b}_{u_{j}}=\vec{b}_{u_{j}}\cdot\vec{b}_{u_{i}}=g_{ji}

Wegen dieser Symmetrie hat der metrische Tensor N(N+1)/2 unabhängige Elemente (statt N^2). Im Dreidimensionalen also 6 Koeffizienten.

Der metrische Tensor lässt sich als Produkt der Jacobi-Matrix und ihrer Transponierten schreiben:

\underline{\underline{g}}=\underline{\underline{J}}^{T}\underline{\underline{J}}=[\vec{b}_{u_{1}},\vec{b}_{u_{2}},\ldots,\vec{b}_{u_{n}}]^{T}[\vec{b}_{u_{1}},\vec{b}_{u_{2}},\ldots,\vec{b}_{u_{n}}]=\left(\begin{array}{ccc}
\vec{b}_{u_{1}}\cdot\vec{b}_{u_{1}} & \ldots & \vec{b}_{u_{1}}\cdot\vec{b}_{u_{n}}\\
\vdots &  & \vdots\\
\vec{b}_{u_{n}}\cdot\vec{b}_{u_{1}} & \ldots & \vec{b}_{u_{n}}\cdot\vec{b}_{u_{n}}
\end{array}\right)

Die Größen g_{ij} nennt man Metrik- bzw. Maßkoeffizienten, da diese benötigt werden um die Länge eines Vektors aus den kontravarianten Koordinaten \{\tilde{a}_{u_{i}}\} zu berechnen. Hierzu sind die Maßstabsfaktoren nötig.

Die Maßstabsfaktoren h_{u_{i}} sind durch die Diagonalelemente g_{ii} gegeben, da |\vec{b}_{u_{i}}| = \sqrt{ \vec{b}_{u_{i}}\cdot\vec{b}_{u_{i}} } gilt:

h_{u_{i}}=\sqrt{g_{ii}}

Die Determinante des metrischen Tensors wird Gramsche Determinante g genannt:

\det\underline{\underline{g}}=g

Aus g=\det(J^{T}J)=\det J^{T}\det J=(\det J)^{2} folgt, dass die Determinante der Jacobi-Matrix (also die Funktionaldeterminante) gleich der Wurzel der Gramschen Determinante entspricht.

\det[\vec{b}_{u_{1}},\vec{b}_{u_{2}},\ldots,\vec{b}_{u_{n}}]\equiv\det J=\sqrt{g}

Und die Determinante aus den normierten Basisvektoren ergibt (aufgrund der Multilinearität von Determinanten):

\det[\vec{e}_{u_{1}},\vec{e}_{u_{2}},\ldots,\vec{e}_{u_{n}}]=\det[h_{u_{1}}^{-1}\vec{b}_{u_{1}},h_{u_{2}}^{-1}\vec{b}_{u_{2}},\ldots,h_{u_{n}}^{-1}\vec{b}_{u_{n}}]=\frac{\det[\vec{b}_{u_{1}},\vec{b}_{u_{2}},\ldots,\vec{b}_{u_{n}}]}{h_{u_{1}}h_{u_{2}}\cdots h_{u_{n}}}=\frac{\sqrt{g}}{h_{u_{1}}h_{u_{2}}\cdots h_{u_{n}}}

Für die Inverse g^{ij} des metrischen Tensors gilt nach der Cramerschen Regel

g^{ij}:=(g^{-1})_{ij}=\frac{A^{ij}}{g}

wobei A^{ij} die Adjunkte (die Transponierte der Kofaktormatrix, deren Einträge die vorzeichenbehafteten Unterdeterminanten sind) und g die Gramsche Determinante bezeichnet. Aus

g:=\det\underline{\underline{g}}=\sum_{i,j}g_{ij}A^{ij}\quad\Longrightarrow\quad\frac{\partial g}{\partial g_{ij}}=A^{ij}

folgt für den inversen metrischen Tensor:

g^{ij}=\frac{1}{g}\frac{\partial g}{\partial g_{ij}}

Spezialfall: Orthogonale Koordinaten[Bearbeiten]

Schneiden sich im n-dimensionalen Raum an jedem Raumpunkt die n Koordinatenlinien paarweise senkrecht, so spricht man von einem orthogonalen Koordinatensystem. Die Einheitsvektoren \vec{e}_{u_{i}} bilden also eine orthonormale Basis des \mathbb{R}^{n}:

\vec{e}_{u_{i}}\cdot \vec{e}_{u_{j}}=\delta_{ij},   i,j=1,2,\ldots,n   (\delta: \ Kronecker-Delta)

Für die natürlichen Basisvektoren gilt:

g_{ij}=\vec{b}_{u_{i}}\cdot \vec{b}_{u_{j}}=h_{u_{i}}h_{u_{j}}\delta_{ij}=h_{u_{i}}^2\delta_{ij}

Somit ist für orthogonale Basisvektoren der metrische Tensor diagonal.

\underline{\underline{g}}=\left(\begin{array}{cccc}
h_{u_{1}}^{2} & 0 & \ldots & 0\\
0 & h_{u_{2}}^{2} & \ldots & 0\\
\vdots & \vdots &  & \vdots\\
0 & 0 & \ldots & h_{u_{3}}^{2}
\end{array}\right)

Der inverse metrische Tensor ist für orthogonale Koordinaten gleich:

(g^{-1})_{ij} \equiv g^{ij}=h_{u_{i}}^{-2}\delta_{ij}
\underline{\underline{g}}^{-1}=\left(\begin{array}{cccc}
1/h_{u_{1}}^{2} & 0 & \ldots & 0\\
0 & 1/h_{u_{2}}^{2} & \ldots & 0\\
\vdots & \vdots &  & \vdots\\
0 & 0 & \ldots & 1/h_{u_{n}}^{2}
\end{array}\right)

Die Gramsche Determinante vereinfacht sich für orthogonale Koordinaten zu:

g=h_{u_{1}}^{2}h_{u_{2}}^{2}\cdots h_{u_{n}}^{2}

Für die Determinanten aus natürlichen bzw. normierten Basisvektoren gilt hier:

\det[\vec{b}_{u_{1}},\vec{b}_{u_{2}},\ldots,\vec{b}_{u_{n}}]=\sqrt{g}=h_{u_{1}}h_{u_{2}}\cdots h_{u_{3}} \quad\iff\quad \det[\vec{e}_{u_{1}},\vec{e}_{u_{2}},\ldots,\vec{e}_{u_{n}}]=1

Spezialfall: Orthogonale Koordinaten in 3 Dimensionen[Bearbeiten]

Bilden die orthonormalen Basisvektoren eine rechtshändige Basis (positive Orientierung), gelten folgende Beziehungen:

\vec{e}_{u_{i}}\times \vec{e}_{u_{j}}=\varepsilon _{ijk}\vec{e}_{u_{k}} ,   i,j,k=1,2,3   (\varepsilon: Levi-Civita-Symbol)

Ausgeschrieben:

\begin{align}\vec{e}_{u_{1}}\times\vec{e}_{u_{2}} & =\vec{e}_{u_{3}}\quad & \vec{e}_{u_{2}}\times\vec{e}_{u_{3}} & =\vec{e}_{u_{1}}\quad & \vec{e}_{u_{3}}\times\vec{e}_{u_{1}} & =\vec{e}_{u_{2}}\\
\vec{e}_{u_{2}}\times\vec{e}_{u_{1}} & =-\vec{e}_{u_{3}} & \vec{e}_{u_{3}}\times\vec{e}_{u_{2}} & =-\vec{e}_{u_{1}} & \vec{e}_{u_{1}}\times\vec{e}_{u_{3}} & =-\vec{e}_{u_{2}}\end{align}

Spezialfall: Geradlinige Koordinatensysteme[Bearbeiten]

Für allgemeine krummlinige Koordinaten sind die Koordinatenlinien gekrümmt und die Basisvektoren variieren von Punkt zu Punkt. Beim Spezialfall der geradlinigen, aber durchaus schiefwinkligen, Koordinatensystemen sind die Koordinatenlinien gerade und die Basisvektoren somit ortsunabhängig. Die Koordinatenflächen sind Ebenen, eine Schar von Koordinatenflächen bilden parallele Ebenen.

Die Transformationsgleichungen lassen sich in diesem Fall schreiben als:

x_i = \sum_{j=1}^{n} A_{ij} u_j + b_i \quad \iff \quad J_{ij}\equiv\frac{\partial x_i}{\partial u_j}=A_{ij}

wobei die A_{ij} und b_i konstant sind. Die Jacobi-Matrix J entspricht dabei der Transformationsmatrix A. Somit entsprechen die natürlichen Einheitsvektoren \vec{b}_{u_{i}} der i-ten Spalte der Matrix A.

Beispiel für geradlinige, schiefwinklige Koordinatensysteme[Bearbeiten]

Minkowski-Diagramm mit x_0=ct \ \ ,\ x_1=x,
u_0=ct' \ , \ u_1=x', \tanh\theta=\tan\alpha=\beta.

Als Beispiel eines geradlinigen, schiefwinkligen Koordinatensystems wird ein Minkowski-Diagramme betrachtet mit zwei Bezugssystemen, die sich gleichförmig zueinander mit der Geschwindigkeit v=\beta c bewegen. Über \tanh\theta=\tan\alpha=\beta hängen die Größen relative Geschwindigkeit \beta, Rapidität \theta und Winkel \alpha mit den Wertebereichen mit 0\leq\beta < 1 und 0\leq\alpha < \pi/4 sowie 0\leq\theta < \infty zusammen. Die Lorentz-Transformation transformiert die Bezugssysteme ineinander x_i = \sum_{j=0}^{1} A_{ij} u_j:

\begin{pmatrix}x_{0}\\ x_{1} \end{pmatrix} = \begin{pmatrix}\cosh\theta & \sinh\theta\\ \sinh\theta & \cosh\theta
\end{pmatrix}\begin{pmatrix}u_{0}\\ u_{1} \end{pmatrix}\equiv\frac{1}{\sqrt{\cos^{2}\alpha-\sin^{2}\alpha}}\begin{pmatrix}\cos\alpha & \sin\alpha\\ \sin\alpha & \cos\alpha \end{pmatrix}\begin{pmatrix}u_{0}\\ u_{1} \end{pmatrix}

Da die Koordinatentransformation linear ist, gilt: A_{ij} = J_{ij}. Die Einheitsvektoren in u_i Richtung lauten in kartesischen Koordinaten:

\vec{b}_{u_{0}}=\begin{pmatrix}\cosh\theta\\ \sinh\theta \end{pmatrix}\,,\ \vec{b}_{u_{1}} = \begin{pmatrix}\sinh\theta\\ \cosh\theta \end{pmatrix}

Interpretiert man das Minkowski-Diagramm euklidisch (Verwendung des Standardskalarprodukts und nicht des Minkowski-Skalarprodukts) erhält man den metrischen Tensor

\underline{\underline{g}}=\underline{\underline{J}}^{T}\underline{\underline{J}}=\begin{pmatrix}\cosh^{2}\theta+\sinh^{2}\theta & 2\cosh\theta\sinh\theta\\ 2\cosh\theta\sinh\theta & \cosh^{2}\theta+\sinh^{2}\theta \end{pmatrix}

und die Gramsche Determinante

g=(\cosh^2\theta-\sinh^2\theta)^2=1

Da für \theta\neq 0 Nebendiagonalelemente auftreten, bilden die \{u_{i}\} Koordinatenlinien keinen rechten Winkel:

\sphericalangle(\vec{b}_{u_{0}},\vec{b}_{u_{1}})=\arccos\!\left[\tanh(2\theta)\right]=\pi/2-2\alpha

Da für \theta\neq 0 die Diagonalelemente ungleich Eins sind, sind die natürlichen Basisvektoren \vec{b}_{u_{i}} keine Einheitsvektoren, d. h. der Maßstab auf den gekippten u_{i} Koordinatenlinien ist gestreckt:

h_{u_{i}}=\left( \cosh^{2}\theta+\sinh^{2}\theta \right)^{1/2} = \left( \cos^{2}\alpha-\sin^{2}\alpha \right)^{-1/2} \geq 1 .

Nebenbemerkung: Mit dem Skalarprodukt der speziellen Relativitätstheorie \vec{a}\cdot\vec{b}=\vec{a}^{\, T}\underline{\underline{\eta}}\ \vec{b}, wobei \underline{\underline{\eta}} = \begin{pmatrix}1\\ & -1 \end{pmatrix} die nichteuklidische Minkowski-Metrik ist, erhält man die Invarianz des Skalarprodukts \underline{\underline{g}}=\underline{\underline{J}}^{T}\underline{\underline{\eta}}\ \underline{\underline{J}}=\underline{\underline{\eta}} unter Lorentz-Boosts.

Duale Basis: Kontravariante Basis[Bearbeiten]

Die kontravarianten Basisvektoren stehen an jedem Punkt senkrecht auf den Koordinatenflächen. Sie sind dual zu den kovarianten Basisvektoren. Die kontravarianten Komponenten eines Vektors lassen sich durch Projektion auf kontravariante Basisvektoren erhalten.

Komponenten als Projektion auf Basisvektoren: Orthogonale Koordinaten[Bearbeiten]

Die Vektorkomponente a_{u_{i}} (kontravariante Komponente) des Vektors \vec{a}=\sum\limits_{j=1}^{n}{a_{u_{j}}\vec{e}_{u_{j}}} lässt sich für eine orthonormale Basis (\vec{e}_{u_{i}}\cdot\vec{e}_{u_{j}}=\delta_{ij}) einfach durch folgende Projektion bestimmen:

\vec{e}_{u_{i}}\cdot\vec{a}=\sum\limits _{j=1}^{n}{a_{u_{j}}\vec{e}_{u_{i}}\cdot\vec{e}_{u_{j}}}=\sum\limits _{j=1}^{n}{a_{u_{j}}\delta_{ij}}=a_{u_{i}}

Bei nicht orthogonalen Koordinatensystemen (schiefwinklig) erhält man durch die Projektion \vec{e}_{u_{i}}\cdot\vec{a} eines Vektors auf einen kovarianten Basisvektor die kovariante Komponente a_{u_{i}}^{\,*} (kovariante Komponente - in der Tensoranalysis mit tiefgestellten Index geschrieben a_{i}) und nicht die kontravariante Komponente a_{u_{i}}, da hier die Relation \vec{e}_{u_{i}}\cdot\vec{e}_{u_{j}}=\delta_{ij} nicht gilt, bzw. der metrische Tensor nicht diagonal ist. Hierzu benötigt man das Konzept des Dualraums und der dualen Basis.

Einführung Dualraum und duale Basis[Bearbeiten]

Der Dualraum V^* zum Vektorraum V der Tangentialvektoren wird gebildet aus den linearen Funktionalen (auch 1-Formen), die Vektoren in den darunterliegenden Körper abbilden: V^* \colon\ V \rightarrow K,\ \vec{v} \mapsto f[\vec{v}]. Eine Basis des Dualraums V^* sind die dualen Basisvektoren zu V. Diese sind so definiert, dass \vec{e}_{i}^{\,*}[\vec{e}_{j}]=\delta_{ij} gilt.

Weiterhin definiert man folgende Bilinearform, die sog. duale Paarung: \langle \cdot,\cdot\rangle\colon\ V^* \times V \rightarrow K,\ \langle f,\vec{v}\rangle = f[\vec{v}]. Damit lässt sich die Wirkung dualer Basisvektoren \vec{e}_{i}^{\,*}\in V^{\,*} auf Basisvektoren \vec{e}_{j}\in V schreiben als:

\langle\vec{e}_{i}^{\,*},\vec{e}_{j}\rangle=\delta_{ij}

Für endlichdimensionale V ist V^* isomorph zu V, also V \cong V^{\,*}. In euklidischen Räumen E^n (dem \mathbb{R}^{n} mit dem Standardskalarprodukt) lässt sich die die duale Paarung mit dem Skalarprodukt

\langle\vec{w}^{\,*},\vec{v}\rangle=\sum_{i=1}^{n}w_{i}^{\,*}\, v_{i} \equiv \vec{w}^{\,*}\cdot\vec{v} = \vec{w}\underline{\underline{g}}\vec{v}

identifizieren und somit duale Vektoren ebenfalls als Vektoren darstellen (hier gilt: K=\mathbb{R} und V=\mathbb{R}^n sowie V^{\,*}=\mathbb{R}^n).

Duale Basis[Bearbeiten]

Die duale Basis ist also so definiert, dass für das Skalarprodukt aus Basisvektoren \vec{e}_{u_{j}} (kovariante Basisvektoren) und dualen Basisvektoren \vec{e}^{\  *}_{u_{i}} (kontravariante Basisvektoren) gilt (hier für die normierten Basisvektoren \vec{e}_{u_{j}}):

\vec{e}^{\  *}_{u_{i}}\cdot\vec{e}_{u_{j}} = \delta_{ij} \quad\text{mit}\quad \vec{b}_{u_{j}}=h_{u_{j}}\vec{e}_{u_{j}}\ ,\quad\vec{b}_{u_{i}}^{\ *}=\frac{1}{h_{u_{i}}}\vec{e}_{u_{i}}^{\ *}.

Bzw. analog für die natürlichen Basisvektoren \vec{b}_{u_{j}} und deren duale Basisvektoren \vec{b}^{\  *}_{u_{i}}:

\vec{v}^{\  *}_{u_{i}}\cdot\vec{b}_{u_{j}} = \delta_{ij}.

Für die natürlichen Basisvektoren \vec{b}_{u_{j}} und deren duale Basisvektoren \vec{e}^{\  *}_{u_{i}} gilt in Matrixnotation:

[\vec{b}_{u_{1}}^{\  *},\vec{b}_{u_{2}}^{\  *},\ldots,\vec{b}_{u_{n}}^{\  *}]^{T}[\vec{b}_{u_{1}},\vec{b}_{u_{2}},\ldots,\vec{b}_{u_{n}}]=\underline{\underline{E}}

Da die Matrix mit den kovarianten Basisvektoren als Spaltenvektoren der Jacobi-Matrix entspricht \underline{\underline{J}}=[\vec{b}_{u_{1}},\vec{b}_{u_{2}},\ldots,\vec{b}_{u_{n}}], muss folglich die Matrix mit den kontravarianten Basisvektoren als Zeilenvektoren der inversen Jacobi-Matrix entsprechen:

\underline{\underline{J}}^{-1}=[\vec{b}_{u_{1}}^{\  *},\vec{b}_{u_{2}}^{\  *},\ldots,\vec{b}_{u_{n}}^{\  *}]^{T}

Um die dualen Basisvektoren zu erhalten, muss somit die Inverse der Jacobi-Matrix bestimmt werden.

Die Gramsche Determinante der kontravarianten Basisvektoren muss dem Inversen der Determinante der kovarianten Basisvektoren entsprechen:

\det[\vec{b}_{u_{1}}^{\  *},\vec{b}_{u_{2}}^{\  *},\ldots,\vec{b}_{u_{n}}^{\  *}]^{T}=\det(J^{-1})=\frac{1}{\det(J)}=\frac{1}{\sqrt{g}}

Kovariante Komponenten: Vektoren als Linearkombination der kontravarianten Basisvektoren[Bearbeiten]

Mit der neuen Basis lassen sich nun alle Vektoren \vec{a} durch die Basisvektoren der kontravarianten Basis \vec{e}_{u_{i}}^{\ *} (normiert) bzw. \vec{b}_{u_{i}}^{\ *} (unnormiert = natürliche Basisvektoren) ausdrücken:

\vec{a}=\sum\limits _{i=1}^{n}{a_{u_{i}}^{\ *}\vec{e}_{u_{i}}^{\ *}}=\sum\limits _{i=1}^{n}{\tilde{a}_{u_{i}}^{\ *}\vec{b}_{u_{i}}^{\ *}}\quad\text{mit}\quad\tilde{a}_{u_{i}}^{\ *}=h_{u_{i}}a_{u_{i}}^{\ *},\quad\vec{b}_{u_{i}}^{\ *}=\frac{1}{h_{u_{i}}}\vec{e}_{u_{i}}^{\ *}

Dabei ist a_{u_{i}}^{\ *} bzw. \tilde{a}_{u_{i}}^{\ *} die (kovariante) Vektorkomponente, die in Richtung der Normale der u_{i}-Koordinatenfläche zeigt. In der Tensoranalysis wird \tilde{a}_{u_{i}}^{\ *} mit tiefgestelltem Index geschrieben.

Komponenten als Projektion auf Basisvektoren: Allgemein krummlinige Koordinaten[Bearbeiten]

Die kontravariante Komponente a_{u_{i}} eines Vektors \vec{a}=\sum_{j=1}^{n}{a_{u_{j}}\vec{e}_{u_{j}}} erhält man durch Projektion auf den dualen Basisvektor \vec{e}^{\  *}_{u_{i}} (kontravariante Basis - in der Tensoranalysis mit hochgestelltem Index geschrieben \vec{e}^{i}).

\vec{e}^{\  *}_{u_{i}}\cdot\vec{a}=\sum\limits _{j=1}^{n}{a_{u_{j}}\vec{e}^{\  *}_{u_{i}}\cdot\vec{e}_{u_{j}}}=\sum\limits _{j=1}^{n}{a_{u_{j}}\delta_{ij}}=a_{u_{i}}

Bei orthonormalen Basisvektoren stimmen ko- und kontravariante Basisvektoren überein und ebenso ko- und kontravariante Komponenten eines Vektors.

Allgemein lässt sich ein beliebiger Vektor über kontra- oder kovariante Basisvektoren darstellen:

\vec{a}=\sum\limits _{i=1}^{n}a_{u_{i}}\vec{b}_{u_{i}}=\sum\limits _{i=1}^{n}a_{u_{i}}^{\,*}\vec{b}_{u_{i}}^{\,*}

Somit werden kontravariante Komponenten mit kovarianten Basisvektoren oder kovariante Komponenten mit kontravarianten Basisvektoren kombiniert. Diese Eigenschaft führt auf die Invarianz der Vektoren unter einem Wechsel des Koordinatensystems.

Multiplikation auf beiden Seiten mit \vec{b}_{u_{j}} liefert

\sum\limits _{i=1}^{n}a_{u_{i}}\underbrace{\vec{b}_{u_{i}}\cdot\vec{b}_{u_{j}}}_{g_{ij}}=\sum\limits _{i=1}^{n}a_{u_{i}}^{\,*}\underbrace{\vec{b}_{u_{i}}^{\,*}\cdot\vec{b}_{u_{j}}}_{\delta_{ij}}\quad\Rightarrow\quad a_{u_{j}}^{\,*}=\sum\limits _{i=1}^{n}g_{ij}a_{u_{i}}\quad\Rightarrow\quad a_{u_{i}}=\sum\limits _{i=1}^{n}g_{ij}^{-1}a_{u_{j}}^{\,*}

Somit lassen sich mit Hilfe des metrischen Tensors g_{ij}=\vec{b}_{u_{i}}\cdot\vec{b}_{u_{j}} und seiner Inversen g_{ij}^{-1}=\vec{b}_{u_{i}}^{\,*}\cdot\vec{b}_{u_{j}}^{\,*} kontravariante Komponenten a_{u_{i}} in kovariante a_{u_{j}}^{\,*} und umgekehrt überführen (in Tensorsprache: Heben und Senken von Indizes).

Duale Basis und Komponenten für orthogonale Koordinaten[Bearbeiten]

Bei orthogonalen Koordinaten stimmen in der normierten Form Basisvektoren und duale Basisvektoren überein. Für die natürliche Basis bedeutet dies, dass zwei zueinander duale Basisvektoren kollinear sind, d. h. der eine ist ein Vielfaches (Faktor h_{u_{i}}^{2}) des anderen:

\vec{e}_{u_{i}}^{\ *} = \vec{e}_{u_{i}} \quad \iff \quad h_{u_{i}}\vec{b}_{u_{i}}^{\ *} = \frac{1}{h_{u_{i}}}\vec{b}_{u_{i}} \equiv \vec{e}_{u_{i}}

Somit stimmen die Komponenten bzgl. der normierten Basis ebenfalls überein:

a_{u_{i}}^{\ *}=a_{u_{i}}\quad\iff\quad\frac{1}{h_{u_{i}}}\tilde{a}_{u_{i}}^{\ *}=h_{u_{i}}\tilde{a}_{u_{i}}\equiv a_{u_{i}}

Duale Basis in 3 Dimensionen[Bearbeiten]

Die dualen Basisvektoren lassen sich im dreidimensionalen über Kreuzprodukte der Basisvektoren geteilt durch deren Spatprodukt \det(\vec{e}_{u_{1}},\vec{e}_{u_{2}},\vec{e}_{u_{3}}) bzw. \det(\vec{b}_{u_{1}},\vec{b}_{u_{2}},\vec{b}_{u_{3}})=\sqrt{g} ausdrücken:

\vec{e}_{u_{1}}^{\,*}=\frac{\vec{e}_{u_{2}}\times\vec{e}_{u_{3}}}{\det(\vec{e}_{u_{1}},\vec{e}_{u_{2}},\vec{e}_{u_{3}})}\ ,\quad\quad\vec{e}_{u_{2}}^{\,*}=\frac{\vec{e}_{u_{3}}\times\vec{e}_{u_{1}}}{\det(\vec{e}_{u_{1}},\vec{e}_{u_{2}},\vec{e}_{u_{3}})}\ ,\quad\quad\vec{e}_{u_{3}}^{\,*}=\frac{\vec{e}_{u_{1}}\times\vec{e}_{u_{2}}}{\det(\vec{e}_{u_{1}},\vec{e}_{u_{2}},\vec{e}_{u_{3}})}

In kompakter Notation für die normierten Basisvektoren

\sum_{k=1}^{3}\epsilon_{ijk}\vec{e}_{u_{k}}^{\,*}=\frac{\vec{e}_{u_{i}}\times\vec{e}_{u_{j}}}{\det(\vec{e}_{u_{1}},\vec{e}_{u_{2}},\vec{e}_{u_{3}})}

bzw. für die natürlichen Basisvektoren:

\sum_{k=1}^{3}\epsilon_{ijk}\vec{b}_{u_{k}}^{\,*}=\frac{\vec{b}_{u_{i}}\times\vec{b}_{u_{j}}}{\sqrt{g}}

Während die (kovarianten) Basisvektoren tangential an die Koordinatenlinien sind, stehen die dualen (kontravarianten) Basisvektoren senkrecht auf den Koordinatenflächen. Beispiel: Während die Vektoren \vec{e}_{u_{2}} und \vec{e}_{u_{3}} in der u_{1}=\text{const} Koordinatenfläche liegen, steht \vec{e}_{u_{1}}^{\,*} senkrecht auf dieser.

Umgekehrt lassen sich die kontravarianten Basisvektoren im dreidimensionalen über Kreuzprodukte der kovarianten Basisvektoren geteilt durch deren Spatprodukt \det(\vec{b}_{u_{1}}^{\ *},\vec{b}_{u_{2}}^{\ *},\vec{b}_{u_{3}}^{\ *})=1/\sqrt{g} bzw. \det(\vec{e}_{u_{1}}^{\,*},\vec{e}_{u_{2}}^{\,*},\vec{e}_{u_{3}}^{\,*}) ausdrücken:

\sum_{k=1}^{3}\epsilon_{ijk}\vec{e}_{u_{k}}=\frac{\vec{e}_{u_{i}}^{\,*}\times\vec{e}_{u_{j}}^{\,*}}{\det(\vec{e}_{u_{1}}^{\,*},\vec{e}_{u_{2}}^{\,*},\vec{e}_{u_{3}}^{\,*})}=\det(\vec{e}_{u_{1}},\vec{e}_{u_{2}},\vec{e}_{u_{3}})\,\vec{e}_{u_{i}}^{\,*}\times\vec{e}_{u_{j}}^{\,*}
\sum_{k=1}^{3}\epsilon_{ijk}\vec{b}_{u_{k}}=\frac{\vec{b}_{u_{i}}^{\ *}\times\vec{b}_{u_{j}}^{\ *}}{\det(\vec{b}_{u_{1}}^{\ *},\vec{b}_{u_{2}}^{\ *},\vec{b}_{u_{3}}^{\ *})}=\det(\vec{b}_{u_{1}},\vec{b}_{u_{2}},\vec{b}_{u_{3}})\vec{b}_{u_{i}}^{\ *}\times\vec{b}_{u_{j}}^{\ *}=\sqrt{g}\,\vec{b}_{u_{i}}^{\ *}\times\vec{b}_{u_{j}}^{\ *}

Bilden die kovarianten Basisvektoren ein Rechtssystem (Funktionaldeterminante positiv), dann bilden auch die kontravarianten Basisvektoren ein Rechtssystem (inverse Funktionaldeterminante positiv). Das Produkt aus den beiden Determinanten muss nämlich Eins ergeben.

Beispiel für geradlinige, schiefwinklige Koordinatensysteme[Bearbeiten]

Minkowski-Diagramm für \tanh\theta=\beta und \beta=0,5 mit Basis- und dualen Basisvektoren.

Als Beispiel eines geradlinigen, schiefwinkligen Koordinatensystems dient, als Fortsetzung des obigen Beispiels, ein Minkowski-Diagramm. Die Lorentz-Transformation war gegeben durch x_i = \sum_{j=0}^{1} A_{ij} u_j, somit lautet die inverse Transformation: u_i = \sum_{j=0}^{1} A_{ij}^{-1} x_j:

\begin{pmatrix}u_{0}\\ u_{1} \end{pmatrix} = \begin{pmatrix}\cosh\theta & -\sinh\theta\\ -\sinh\theta & \cosh\theta
\end{pmatrix}\begin{pmatrix}x_{0}\\ x_{1} \end{pmatrix}

Da die Koordinatentransformation linear ist, gilt: A_{ij}^{-1} = J_{ij}^{-1}. Somit lauten die dualen Einheitsvektoren in kartesischen Koordinaten:

\vec{b}_{u_{0}}^{\,*}=\begin{pmatrix}\cosh\theta\\ -\sinh\theta \end{pmatrix}\,,\ \vec{b}_{u_{1}}^{\,*} = \begin{pmatrix}-\sinh\theta\\ \cosh\theta \end{pmatrix}

Diese erfüllen die Dualitätsbedingungen: Orthogonalität für \vec{b}_{u_{0}}^{\,*}\cdot\vec{b}_{u_{1}}=0 und \vec{b}_{u_{1}}^{\,*}\cdot\vec{b}_{u_{0}}=0 sowie Normierung für \vec{b}_{u_{0}}^{\,*}\cdot\vec{b}_{u_{0}}=1 und \vec{b}_{u_{1}}^{\,*}\cdot\vec{b}_{u_{1}}=1.

Tensoren[Bearbeiten]

Tensoren n-ter Stufe lassen sich allgemein als n-faches Tensorprodukt von Vektoren darstellen:

\vec{v}_{1}\otimes\vec{v}_{2}\otimes\ldots\otimes\vec{v}_{n}

Das tensorielle Produkt von Vektoren ist nicht kummutativ, sodass die Reihenfolge der (Basis-) Vektoren nicht vertauscht werden darf.

Dabei sind Skalare (Funktionen der Koordinaten \{u_{i}\} in den Grundkörper, also \phi:\mathbb{R}^n\to\mathbb{R}, die unter Koordinatentransformation ihren Funktionswert an jedem Punkt nicht ändern \phi(u_i)=\tilde{\phi}(\tilde{u}_i)) Tensoren nullter Stufe und Vektoren sind Tensoren erster Stufe.

Da sich Vektoren auf zwei verschiedene Arten, nämlich kovariant bzw. kontravariant, darstellen lassen, gibt es für einen Tensor n-ter Stufe 2^n Darstellungsmöglichkeiten. Durch die Darstellung mittels Vektoren werden die Eigenschaften des Vektors auf Tensoren vererbt. So lassen sich z.B. mit Hilfe des metrischen Tensors Indizes heben und senken, d. h. ko- in kontravariante Komponenten bzw. umgekehrt überführen. Tensoren, die sich durch Heben und Senken (also innere Produkte mit dem metrischen Tensor) ergeben, heißen assoziierte Tensoren. Ebenso wird das Transformationsverhalten von Vektoren für Tensoren übernommen, d. h. kovariante Anteile eines Tensors transformieren sich wie kovariante Vektoren, also mittels der Jacobi-Matrix, und kontravariante Anteile mit der inversen Jacobi-Matrix, wie bei kontravarianten Vektoren.

Tensoren zweiter Stufe[Bearbeiten]

Ein Tensor zweiter Stufe kann auf vier verschiedenen Arten dargestellt werden:

\underline{\underline{T}}=\vec{v}\otimes\vec{w}=\sum\limits _{i,j=1}^{n}v_{u_{i}}w_{u_{j}}\vec{b}_{u_{i}}^{\ *}\otimes\vec{b}_{u_{j}}^{\ *}=\sum\limits _{i,j=1}^{n}v_{u_{i}}^{\,*}w_{u_{j}}^{\,*}\vec{b}_{u_{i}}\otimes\vec{b}_{u_{j}}=\sum\limits _{i,j=1}^{n}v_{u_{i}}w_{u_{j}}^{\,*}\vec{b}_{u_{i}}^{\ *}\otimes\vec{b}_{u_{j}}=\sum\limits _{i,j=1}^{n}v_{u_{i}}^{\,*}w_{u_{j}}\vec{b}_{u_{i}}\otimes\vec{b}_{u_{j}}^{\ *}

Die vier Fälle sind: (rein) kontravariant, (rein) kovariant, gemischt kontra-kovariant, gemischt ko-kontravariant.

Der Einheitstensor, definiert durch \underline{\underline{I}}\cdot\vec{v}=\vec{v}, ist gegeben durch:

\underline{\underline{I}}=\sum\limits _{i,j=1}^{n}g^{ij}\,\vec{b}_{u_{i}}^{\ *}\otimes\vec{b}_{u_{j}}^{\ *}=\sum\limits _{i,j=1}^{n}g_{ij}\,\vec{b}_{u_{i}}\otimes\vec{b}_{u_{j}}=\sum\limits _{i=1}^{n}\vec{b}_{u_{i}}^{\ *}\otimes\vec{b}_{u_{i}}=\sum\limits _{i=1}^{n}\vec{b}_{u_{i}}\otimes\vec{b}_{u_{i}}^{\ *}

Skalarprodukt zweier Vektoren[Bearbeiten]

Das Skalarprodukt zweier Vektoren in krummlinigen Koordinaten ist gegeben durch:

\vec{v}\cdot\vec{w}=\sum\limits _{i=1}^{n}v_{u_{i}}w_{u_{i}}^{\,*}=\sum\limits _{i=1}^{n}v_{u_{i}}^{\,*}w_{u_{i}}=\sum\limits _{i,j=1}^{n}v_{u_{i}}^{\,*}g^{ij}w_{u_{i}}^{\,*}=\sum\limits _{i,j=1}^{n}v_{u_{i}}g_{ij}w_{u_{i}}

Dies entspricht der Kontraktion des Tensors zweiter Stufe \vec{v}\otimes\vec{w} zu einem Tensor nullter Stufe.

Tensoren dritter Stufe[Bearbeiten]

Ein Tensor dritter Stufe kann auf acht verschiedenen Arten dargestellt werden:

\underline{\underline{\underline{T}}}=\vec{a}\otimes\vec{b}\otimes\vec{c}=\sum\limits _{i,j,k=1}^{n}a_{u_{i}}b_{u_{j}}c_{u_{k}}\vec{b}_{u_{i}}^{\ *}\otimes\vec{b}_{u_{j}}^{\ *}\otimes\vec{b}_{u_{k}}^{\ *}=\sum\limits _{i,j,k=1}^{n}a_{u_{i}}b_{u_{j}}c_{u_{k}}^{\,*}\vec{b}_{u_{i}}^{\ *}\otimes\vec{b}_{u_{j}}^{\ *}\otimes\vec{b}_{u_{k}}=\ldots=\sum\limits _{i,j,k=1}^{n}a_{u_{i}}^{\,*}b_{u_{j}}^{\,*}c_{u_{k}}^{\,*}\vec{b}_{u_{i}}\otimes\vec{b}_{u_{j}}\otimes\vec{b}_{u_{k}}

Im Dreidimensionalen ist der total antisymmetrische Tensor gegeben durch:

\underline{\underline{\underline{\mathcal{E}}}}=\sum\limits _{i,j,k=1}^{n}\epsilon_{ijk}\vec{e}_{x_{i}}\otimes\vec{e}_{x_{j}}\otimes\vec{e}_{x_{k}}=\sum\limits _{i,j,k=1}^{n}\mathcal{E}_{ijk}\vec{b}_{u_{i}}^{\ *}\otimes\vec{b}_{u_{j}}^{\ *}\otimes\vec{b}_{u_{k}}^{\ *}=\ldots=\sum\limits _{i,j,k=1}^{n}\mathcal{E}^{ijk}\vec{b}_{u_{i}}\otimes\vec{b}_{u_{j}}\otimes\vec{b}_{u_{k}}
\epsilon_{ijk}=\det[\vec{e}_{x_{i}},\vec{e}_{x_{j}},\vec{e}_{x_{k}}]\equiv\det[\vec{e}_{x_{i}},\vec{e}_{x_{j}},\vec{e}_{x_{k}}]\ ,\quad\mathcal{E}_{ijk}=\det[\vec{b}_{u_{i}},\vec{b}_{u_{j}},\vec{b}_{u_{k}}]=\sqrt{g}\,\epsilon_{ijk}\ ,\quad\mathcal{E}^{ijk}=\det[\vec{b}_{u_{i}}^{\ *},\vec{b}_{u_{j}}^{\ *},\vec{b}_{u_{k}}^{\ *}]=\frac{1}{\sqrt{g}}\,\epsilon^{ijk}

Dabei ist die erste Relation die kartesische Schreibweise, die folgenden zwei aus acht Schreibweisen der krummlinigen Version des Tensors.

Ableitungen der Basisvektoren[Bearbeiten]

Die Ableitungen von Vektoren, die in krummlinigen Koordinaten dargestellt werden, weisen gegenüber den kartesischen folgende Besonderheit auf. Da die Koordinatenlinien im Allgemeinen keine Geraden sind und daher die Basisvektoren eine vom Ort abhängige Richtung haben, müssen die Basisvektoren auch differenziert werden (Anwenden der Produktregel):

\frac{\partial \vec{a}}{\partial u_{k}}=\sum\limits_{i=1}^{n}{\frac{\partial \left( a_{u_{i}}\vec{e}_{u_{i}} \right)}{\partial u_{k}}}=\sum\limits_{i=1}^{n}{\left[ \frac{\partial a_{u_{i}}}{\partial u_{k}}\vec{e}_{u_{i}}+a_{u_{i}}\frac{\partial \vec{e}_{u_{i}}}{\partial u_{k}} \right]}

Bzw. bzgl. der natürlichen Basis

\frac{\partial \vec{a}}{\partial u_{k}}=\sum\limits_{i=1}^{n}{\frac{\partial \left( \tilde{a}_{u_{i}}\vec{b}_{u_{i}} \right)}{\partial u_{k}}}=\sum\limits_{i=1}^{n}{\left[ \frac{\partial \tilde{a}_{u_{i}}}{\partial u_{k}}\vec{b}_{u_{i}}+\tilde{a}_{u_{i}}\frac{\partial \vec{b}_{u_{i}}}{\partial u_{k}} \right]}

Christoffel-Symbole[Bearbeiten]

Die Ableitung der Basisvektoren \vec{b}_{u_{i}} nach einer Koordinate u_{k} lässt sich als Linearkombination aller Basisvektoren \{\vec{b}_{u_{j}}|j=1,2,\ldots,n\} schreiben.

\frac{\partial\vec{b}_{u_{i}}}{\partial u_{k}}=\sum_{j=1}^{n}\Gamma_{ki}^{j}\vec{b}_{u_{j}}

Die Koeffizienten \Gamma_{ki}^{j} heißen Christoffel-Symbole zweiter Art.

\Gamma_{ki}^{j}=\vec{b}_{u_{j}}^{\,*}\frac{\partial\vec{b}_{u_{i}}}{\partial u_{k}}=\sum_{j'}g^{jj'}\vec{b}_{u_{j'}}^{\,}\frac{\partial\vec{b}_{u_{i}}}{\partial u_{k}}=\sum_{j'}g^{jj'}\Gamma_{ki,j'}=(\nabla u_{j})\cdot\frac{\partial^{2}\vec{r}}{\partial u_{k}\partial u_{i}}=\sum_{l}\frac{\partial u_{j}}{\partial x_{l}}\frac{\partial^{2}x_{l}}{\partial u_{k}\partial u_{i}}

Die Größen \Gamma_{ki,j'} heißen Christoffel-Symbole erster Art. Das vollständige Differential eines natürlichen Basisvektors lautet:

\mathrm{d}\vec{b}_{u_{i}}=\sum_{j,k=1}^{n}\Gamma_{ki}^{j}\vec{b}_{u_{j}}\mathrm{d}u_{k}

Die Christoffel-Symbole werden nun für die Ableitung eines Vektors verwendet (beim zweiten Gleichheitszeichen werden die Indizes i und j vertauscht, was möglich ist, da über beide summiert wird, und \vec{b}_{u_{i}} ausgeklammert):

\frac{\partial\vec{a}}{\partial u_{k}}=\sum\limits _{i=1}^{n}\left[\frac{\partial \tilde{a}_{u_{i}}}{\partial u_{k}}\vec{b}_{u_{i}}+\sum_{j=1}^{n}\tilde{a}_{u_{i}}\Gamma_{ki}^{j}\vec{b}_{u_{j}}\right]=\sum\limits _{i=1}^{n}\left[\frac{\partial \tilde{a}_{u_{i}}}{\partial u_{k}}+\sum_{j=1}^{n}\tilde{a}_{u_{j}}\Gamma_{kj}^{i}\right]\vec{b}_{u_{i}}

Kovariante Ableitung[Bearbeiten]

Darauf basierend definiert man die kovariante Ableitung (ein ausgezeichneter Zusammenhang auf einem Tensorbündel, einem besonderen Vektorbündel) eines Vektors durch:

\nabla_{u_{k}}\tilde{a}_{u_{i}}=\frac{\partial \tilde{a}_{u_{i}}}{\partial u_{k}}+\sum_{j=1}^{n}\tilde{a}_{u_{j}}\Gamma_{kj}^{i}

Der erste Term beschreibt die Änderung der Vektorkomponenten \tilde{a}_{u_{i}} des Feldes \vec a entlang der Koordinatenachse u_{k}, der zweite die Änderung des Feldes, die durch die Änderung des Koordinatensystems zustande kommt. In geradlinigen Koordinatensystemen (hier ist der metrische Tensor konstant) verschwinden die Christoffel-Symbole und die kovariante Ableitung ist identisch mit der partiellen Ableitung.

Die kovariante Ableitung führt eine zusätzliche geometrische Struktur auf einer Mannigfaltigkeit ein, die es erlaubt Vektoren aus unterschiedlichen Vektorräumen und zwar aus benachbarten Tangentialräumen zu vergleichen. Somit stellt die kovariante Ableitung einen Zusammenhang zwischen verschiedenen Vektorräumen her. Dieser ist z.B. nötig, um für eine Kurve \vec{\gamma}(t) die Krümmung berechnen zu können - dazu ist der Differentialquotient aus den Vektoren \vec{\gamma}^{\,\prime}(t+\Delta t) und \vec{\gamma}^{\,\prime}(t) zu bilden, die in unterschiedlichen Vektorräumen leben.

Die kovariante Ableitung der Koordinaten eines Tensors n-ter Stufe ergibt die Koordinaten eines Tensors der Stufe (n+1), da ein kovarianter Index hinzukommt. Für Tensoren der Stufe n\geq 1 gilt: Die partielle Ableitung einer Tensorkoordinate nach krummlinigen Koordinaten ist, im Gegensatz zur kovarianten Ableitung, keine Tensorkoordinate.

Die kovariante Ableitung der Koordinaten des metrischen Tensors verschwinden: \nabla_{u_{k}}g_{ij}=\nabla_{u_{k}}g^{ij}=0.

Mit der kovarianten Ableitung lässt sich die Richtungsableitung verallgemeinern:

\nabla_{\vec{w}}\vec{a}=\sum_{i,k=1}^{n}\left(\tilde{w}_{u_{k}}\frac{\partial \tilde{a}_{u_{i}}}{\partial u_{k}}+\sum_{j=1}^{n}\tilde{w}_{u_{k}}\tilde{a}_{u_{j}}\Gamma_{kj}^{i}\right)\vec{b}_{u_{i}}

Beispiel: Die Geodäte auf einer riemannschen Mannigfaltigkeit, die kürzeste Verbindungskurve \gamma:\,\mathbb{R}\to\mathbb{R}^{n},\, t\mapsto\vec{r}(t) zwischen zwei Punkten, lässt sich durch die geodätische Differentialgleichung \nabla_{\dot\gamma}\dot\gamma=0 ausdrücken. Diese Gleichung bedeutet, dass das Geschwindigkeitsvektorfeld (bzw. Tangentenvektorfeld) der Kurve \dot{\vec{r}} längs der Kurve \gamma (also parallel zu \dot{\vec{r}}) konstant ist. Dieser Definition liegt die Überlegung zu Grunde, dass die Geodäten des \mathbb{R}^{n} gerade Linien sind. Die Krümmung der Kurve muss also verschwinden und somit die Richtungsableitung der Tangentenvektoren entlang der Kurve null sein. In lokalen Koordinaten ausgedrückt lautet die geodätische Differentialgleichung:

\nabla_{\dot{\vec{r}}}\dot{\vec{r}}=\sum_{i,k=1}^{n}\Biggl(\underbrace{\frac{\mathrm{d}u_{k}}{\mathrm{d}t}}_{\dot{u}_{k}}\frac{\partial\dot{u}_{i}}{\partial u_{k}}+\sum_{j=1}^{n}\dot{u}_{k}\dot{u}_{j}\Gamma_{kj}^{i}\Biggr)\vec{b}_{u_{i}}=\sum_{i=1}^{n}\left(\frac{\mathrm{d}\dot{u}_{i}}{\mathrm{d}t}+\sum_{j,k=1}^{n}\dot{u}_{k}\dot{u}_{j}\Gamma_{kj}^{i}\right)\vec{b}_{u_{i}}

Es existieren grundsätzlich zwei Möglichkeiten die Christoffelsymbole, also die Koeffizienten des affinen Zusammenhangs \nabla, festzulegen: Entweder man gibt die Koeffizienten vor, d. h. man gibt vor wie sich die Koordinatensysteme von Punkt zu Punkt auf der Mannigfaltigkeit ändern, oder man hat mehr Informationen über den betrachten Raum als nur dass es sich um eine differenzierbare Mannigfaltigkeit handelt (z.B. einen Abstandsbegriff) und weiß dadurch was man unter der kovarianten Ableitung zu verstehen hat, wodurch die Christoffelsymbole ebenfalls festgelegt werden. Hier ist letzterer Fall realisiert, da die hier betrachteten Mannigfaltigkeiten riemannsche Mannigfaltigkeiten sind und somit für jeden Tangentialraum der Mannigfaltigkeit ein Skalarprodukt und dadurch induziert eine Metrik, also einen Abstandsbegriff, existiert.

Da die betrachteten Mannigfaltigkeiten (semi-) riemannsche Mannigfaltigkeit sind (hier verschwindet der Torsionstensor), ist der Zusammenhang \nabla ein sog. Levi-Civita-Zusammenhang, d. h. er ist torsionsfrei bzw. symmetrisch und außerdem ein metrischer Zusammenhang. Da hier der Zusammenhang torsionsfrei ist, entspricht die antisymmetrisierte Richtungsableitung \nabla_{\vec{w}}\vec{a}-\nabla_{\vec{a}}\vec{w} genau der Lie-Ableitung L_{\vec{w}}\vec{a}\equiv [\vec{w},\vec{a}]. Während die Richtungsableitung \nabla_{\vec{w}}\vec{a} linear im Richtungsfeld \vec w ist (die Richtungsableitung hängt vom Richtungsfeld an nur einem Punkt ab), ist die Lie-Ableitung L_{\vec{w}}\vec{a} in keinem Argument linear (für die Lie-Ableitung müssen beide Vektorfelder in einer offenen Umgebung bekannt sein).

Eigenschaften der Christoffel-Symbole[Bearbeiten]

Aus dem Satz von Schwarz (bzw. aus der Torsionsfreiheit des Zusammenhangs \nabla) folgt, dass die Christoffel-Symbole in den unteren beiden Indizes symmetrisch sind:

\frac{\partial\vec{b}_{u_{i}}}{\partial u_{j}}=\frac{\partial^{2}\vec{r}}{\partial u_{j}\partial u_{i}}=\frac{\partial^{2}\vec{r}}{\partial u_{i}\partial u_{j}}=\frac{\partial\vec{b}_{u_{j}}}{\partial u_{i}}\quad\Longrightarrow\quad\Gamma_{ij}^{k}=\Gamma_{ji}^{k}

Daher lassen sich die Christoffel-Symbole durch Ableiten der metrischen Koeffizienten g_{ij} bestimmen:

\Gamma_{ki,j}=\frac{1}{2}\left(\frac{\partial g_{ij}}{\partial u_{k}}+\frac{\partial g_{kj}}{\partial u_{i}}-\frac{\partial g_{ki}}{\partial u_{j}}\right)
\quad\Longrightarrow\quad
\Gamma_{ki}^{j}=\frac{g^{jj'}}{2}\left(\frac{\partial g_{ij'}}{\partial u_{k}}+\frac{\partial g_{kj'}}{\partial u_{i}}-\frac{\partial g_{ki}}{\partial u_{j'}}\right)

Dies folgt aus folgender Relation

\frac{\partial g_{ij}}{\partial u_{k}}=\frac{\partial(\vec{b}_{u_{i}}\cdot\vec{b}_{u_{j}})}{\partial u_{k}}=\frac{\partial\vec{b}_{u_{i}}}{\partial u_{k}}\cdot\vec{b}_{u_{j}}+\vec{b}_{u_{i}}\cdot\frac{\partial\vec{b}_{u_{j}}}{\partial u_{k}}=\sum_{l}\Gamma_{ik}^{l}\vec{b}_{u_{l}}\cdot\vec{b}_{u_{j}}+\sum_{l}\Gamma_{jk}^{l}\vec{b}_{u_{i}}\cdot\vec{b}_{u_{l}}=\sum_{l}\Gamma_{ik}^{l}g_{jl}+\sum_{l}\Gamma_{jk}^{l}g_{il}=\Gamma_{ik,j}+\Gamma_{jk,l}

und zwei Permutationen von \partial_k g_{ij}, nämlich \partial_i g_{jk} und \partial_j g_{ki}.

Für die Ableitung der dualen Basisvektoren erhält man folgenden Zusammenhang mit dem negativen Christoffel-Symbol:

\Gamma_{ki}^{j}=\vec{b}_{u_{j}}^{\,*}\cdot\frac{\partial\vec{b}_{u_{i}}}{\partial u_{k}}=\underbrace{\frac{\partial}{\partial u_{k}}\overbrace{\vec{b}_{u_{j}}^{\,*}\cdot\vec{b}_{u_{i}}}^{\delta_{ij}}}_{0}-\frac{\partial\vec{b}_{u_{j}}^{\,*}}{\partial u_{k}}\cdot\vec{b}_{u_{i}}=-\frac{\partial\vec{b}_{u_{j}}^{\,*}}{\partial u_{k}}\cdot\vec{b}_{u_{i}} \quad\Longrightarrow\quad \frac{\partial\vec{b}_{u_{j}}^{\,*}}{\partial u_{k}}=-\Gamma_{ki}^{j}\vec{b}_{u_{i}}^{\,*}

Damit folgt die kovariante Ableitung von kovarianten Komponenten:

\frac{\partial\vec{a}}{\partial u_{k}}=\sum\limits _{i=1}^{n}\frac{\partial\left(\tilde{a}_{u_{i}}^{\,*}\vec{b}^{\ *}_{u_{i}}\right)}{\partial u_{k}}=\sum\limits _{i=1}^{n}\left[\frac{\partial \tilde{a}_{u_{i}}^{\,*}}{\partial u_{k}}-\sum_{j}\tilde{a}_{u_{j}}^{\,*}\Gamma_{ki}^{j}\right]\vec{b}_{u_{i}}^{\,*}\quad\Longrightarrow\quad\nabla_{u_{k}}\tilde{a}_{u_{i}}^{\,*}=\frac{\partial \tilde{a}_{u_{i}}^{\,*}}{\partial u_{k}}-\sum_{j=1}^{n}\tilde{a}_{u_{j}}^{\,*}\Gamma_{ki}^{j}

Es ist wichtig anzumerken, dass die Christoffel-Symbole mit ihren drei Indizes keinen Tensor dritter Stufe beschreiben, da sie nicht das geforderte Transformationsverhalten für Tensoren zeigen.

\bar{\Gamma}_{ij}^{k}:=\sum_{l,m,n}\frac{\partial\bar{u}_{k}}{\partial u_{l}}\frac{\partial u_{m}}{\partial\bar{u}_{i}}\frac{\partial u_{n}}{\partial\bar{u}_{j}}\Gamma_{mn}^{l}+\sum_{n}\frac{\partial\bar{u}_{k}}{\partial u_{n}}\frac{\partial^{2}u_{n}}{\partial\bar{u}_{i}\partial\bar{u}_{j}}

Das Auftreten des zweiten Summanden in der Transformationsformel zeigt, dass es sich nicht um einen Tensor handelt. Deswegen werden die Christoffel-Symbole in der Literatur manchmal mit Symbolen notiert, die nicht mit Tensoren verwechselt werden können:

\Gamma_{ij}^{k}=\left\{ \begin{array}{c}
k\\ ij \end{array}\right\} \quad \text{und} \quad \Gamma_{ij,k}=\left[ij,k\right]

Die Aussage zum Transformationsverhalten lässt sich verallgemeinern: Der Index (i) einer partiellen Ableitung eines Tensors transformiert sich wie ein kovarianter Index (\partial_i A). Dagegen transformieren sich die beiden Indizes (i,j) einer zweiten partiellen Ableitung \partial_i \partial_j A nicht wie Tensorindizes. Als Ausweg steht die kovariante Ableitung zur Verfügung: Die Indizes einer n-te kovarianten Ableitung einer Tensorkoordinate sind wieder Tensorkoordinaten, sie transformieren sich wie kovariante Indizes. Z.B. sind in \nabla_i \nabla_j A die Indizes i und j kovariante Indizes.

Weitere Eigenschaften krummliniger Koordinaten in 3 Dimensionen[Bearbeiten]

Vektorprodukt und alternierender Tensor[Bearbeiten]

In kartesischen Koordinaten lautet das Kreuz- oder Vektorprodukt mit dem Levi-Civita-Symbol \epsilon^{ijk}

\vec{v}\times\vec{w}=\sum_{ijk}\epsilon_{ijk}v_{j}w_{k}\vec{e}_{i}^{\,*}=\sum_{ijk}\epsilon^{ijk}v_{j}^{\,*}w_{k}^{\,*}\vec{e}_{i}\quad\text{mit}\quad\epsilon_{ijk}=\epsilon^{ijk}=\det[\vec{e}_{i},\vec{e}_{j},\vec{e}_{k}]

In krummlinigen Koordinaten \{u_i\} ist dies unter Verwendung des alternierenden Tensors

\mathcal{E}_{ijk}=\det[\vec{b}_{u_{i}},\vec{b}_{u_{j}},\vec{b}_{u_{k}}]=\sqrt{g}\,\epsilon_{ijk}\ ,\quad \mathcal{E}^{ijk}=\det[\vec{b}_{u_{i}}^{\ *},\vec{b}_{u_{j}}^{\ *},\vec{b}_{u_{k}}^{\ *}]=\frac{1}{\sqrt{g}}\,\epsilon^{ijk}

zu ersetzen durch:

\begin{align}
\vec{v}\times\vec{w} & =\sum_{ijk}\mathcal{E}_{ijk}\tilde{v}_{u_{j}}\tilde{w}_{u_{k}}\vec{b}_{u_{i}}^{\,*}=\sum_{ijk}\mathcal{E}^{ijk}\tilde{v}_{u_{j}}^{\,*}\tilde{w}_{u_{k}}^{\,*}\vec{b}_{u_{i}}\\
 & =\sqrt{g}\left|\begin{matrix}\vec{b}_{u_{1}}^{\ *} & \vec{b}_{u_{2}}^{\ *} & \vec{b}_{u_{3}}^{\ *}\\
\tilde{v}_{u_{1}} & \tilde{v}_{u_{2}} & \tilde{v}_{u_{3}}\\
\tilde{w}_{u_{1}} & \tilde{w}_{u_{2}} & \tilde{w}_{u_{3}}
\end{matrix}\right|=\frac{1}{\sqrt{g}}\left|\begin{matrix}\vec{b}_{u_{1}} & \vec{b}_{u_{2}} & \vec{b}_{u_{3}}\\
\tilde{v}_{u_{1}}^{\,*} & \tilde{v}_{u_{2}}^{\,*} & \tilde{v}_{u_{3}}^{\,*}\\
\tilde{w}_{u_{1}}^{\,*} & \tilde{w}_{u_{2}}^{\,*} & \tilde{w}_{u_{3}}^{\,*}
\end{matrix}\right|
\end{align}

Dies lässt sich mit \vec{b}_{u_{j}}\times\vec{b}_{u_{k}}=\sum_{i}\sqrt{g}\,\epsilon_{ijk}\vec{b}_{u_{i}}^{\,*} ableiten:

\mathcal{E}_{ijk}:=\left(\vec{b}_{u_{j}}\times\vec{b}_{u_{k}}\right)\cdot\vec{b}_{u_{i}}=\sum_{l}\sqrt{g}\,\epsilon_{ljk}\underbrace{\vec{b}_{u_{l}}^{\,*}\cdot\vec{b}_{u_{i}}}_{\delta_{l,i}}=\sqrt{g}\,\epsilon_{ijk}
\vec{v}\times\vec{w}=\sum_{jk}\left(\tilde{v}_{u_{j}}\vec{b}_{u_{j}}\right)\times\left(\tilde{w}_{u_{k}}\vec{b}_{u_{k}}\right)=\sum_{jk}\tilde{v}_{u_{j}}\tilde{w}_{u_{k}}\left(\vec{b}_{u_{j}}\times\vec{b}_{u_{k}}\right)=\sum_{ijk}\tilde{v}_{u_{j}}\tilde{w}_{u_{k}}\underbrace{\sqrt{g}\,\epsilon_{ijk}}_{\mathcal{E}_{ijk}}\vec{b}_{u_{i}}^{\,*}

An folgender Rechnung sieht man, dass \mathcal{E}_{ijk} das korrekte Transformationsverhalten eines Tensors hat (hier die kovariante Version des Tensors):

\mathcal{E}_{ijk}:=\det\!\left[\frac{\partial\vec{r}}{\partial u_{i}},\frac{\partial\vec{r}}{\partial u_{j}},\frac{\partial\vec{r}}{\partial u_{k}}\right]=\det\!\Biggl[\sum_{l}\frac{\partial x_{l}}{\partial u_{i}}\underbrace{\frac{\partial\vec{r}}{\partial x_{l}}}_{\vec{e}_{l}},\sum_{m}\frac{\partial x_{m}}{\partial u_{j}}\underbrace{\frac{\partial\vec{r}}{\partial x_{m}}}_{\vec{e}_{m}},\sum_{n}\frac{\partial x_{n}}{\partial u_{k}}\underbrace{\frac{\partial\vec{r}}{\partial x_{n}}}_{\vec{e}_{n}}\Biggr]=\sum_{l,m,n}\frac{\partial x_{l}}{\partial u_{i}}\frac{\partial x_{m}}{\partial u_{j}}\frac{\partial x_{n}}{\partial u_{k}}\underbrace{\det\!\left[\vec{e}_{l},\vec{e}_{m},\vec{e}_{n}\right]}_{\epsilon_{lmn}}

Bzgl. der normierten Basis lautet das Vektorprodukt:

\begin{align}
\vec{v}\times\vec{w} & =\sum_{ijk}\mathcal{E}_{ijk}\frac{v_{u_{j}}w_{u_{k}}\vec{e}_{u_{i}}^{\,*}}{h_{u_{j}}h_{u_{k}}h_{u_{i}}}=\sum_{ijk}\mathcal{E}^{ijk}h_{u_{j}}v_{u_{j}}^{\,*}h_{u_{k}}w_{u_{k}}^{\,*}h_{u_{i}}\vec{e}_{u_{i}}\\
 & =\sqrt{g}\left|\begin{matrix}h_{u_{1}}^{-1}\vec{e}_{u_{1}}^{\ *} & h_{u_{2}}^{-1}\vec{e}_{u_{2}}^{\ *} & h_{u_{3}}^{-1}\vec{e}_{u_{3}}^{\ *}\\
h_{u_{1}}^{-1}v_{u_{1}} & h_{u_{2}}^{-1}v_{u_{2}} & h_{u_{3}}^{-1}v_{u_{3}}\\
h_{u_{1}}^{-1}w_{u_{1}} & h_{u_{2}}^{-1}w_{u_{2}} & h_{u_{3}}^{-1}w_{u_{3}}
\end{matrix}\right|=\frac{1}{\sqrt{g}}\left|\begin{matrix}h_{u_{1}}\vec{e}_{u_{1}} & h_{u_{2}}\vec{e}_{u_{2}} & h_{u_{3}}\vec{e}_{u_{3}}\\
h_{u_{1}}v_{u_{1}}^{\,*} & h_{u_{2}}v_{u_{2}}^{\,*} & h_{u_{3}}v_{u_{3}}^{\,*}\\
h_{u_{1}}w_{u_{1}}^{\,*} & h_{u_{2}}w_{u_{2}}^{\,*} & h_{u_{3}}w_{u_{3}}^{\,*}
\end{matrix}\right|
\end{align}

Koordinatenfläche: Innere Geometrie[Bearbeiten]

Wir betrachten ohne Beschränkung der Allgemeinheit die Fläche u_3=\text{const}. Ein (unnormierter) Normalenvektor der Fläche ist kollinear zum kontravarianten Basisvektor \vec{b}_{u_{3}}^{\,*}:

\vec{n}=\vec{b}_{u_{1}}\times\vec{b}_{u_{2}}=\sqrt{g}\,\vec{b}_{u_{3}}^{\,*}

Man definiert für eine Fläche im \mathbb{R}^{3} konventionsgemäß die folgenden Größen der "inneren Geometrie", die sich durch Längen- und Winkelmessungen innerhalb der Fläche ermitteln lassen (siehe Erste Fundamentalform):

E=\left(\frac{\partial\vec{r}}{\partial u_{1}}\right)^{2}=\vec{b}_{u_{1}}^{\ 2}=h_{u_{1}}^{2}=g_{11}
F=\frac{\partial\vec{r}}{\partial u_{1}}\cdot\frac{\partial\vec{r}}{\partial u_{2}}=\vec{b}_{u_{1}}\cdot\vec{b}_{u_{2}}=h_{u_{1}}h_{u_{2}}\vec{e}_{u_{1}}\cdot\vec{e}_{u_{2}}=g_{12}
G=\left(\frac{\partial\vec{r}}{\partial u_{2}}\right)^{2}=\vec{b}_{u_{2}}^{\ 2}=h_{u_{2}}^{2}=g_{22}

Für orthogonale Koordinaten \vec{e}_{u_{i}}\cdot \vec{e}_{u_{j}}=\delta _{ij} ist F=0.

Der Metrische Tensor der Fläche und deren Gramsche Determinante ist

\underline{\underline{\tilde{g}}}=\left(\begin{array}{cc} E & F\\ F & G\end{array}\right)\quad\Rightarrow\quad\tilde{g}=\det\underline{\underline{\tilde{g}}}=EG-F^{2}=\vec{b}_{u_{1}}^{\ 2}\vec{b}_{u_{2}}^{\ 2}-(\vec{b}_{u_{1}}\cdot\vec{b}_{u_{2}})^{2}=(\vec{b}_{u_{1}}\times\vec{b}_{u_{2}})^{2}

Die Funktionaldeterminante der Fläche lautet, wobei \hat{n}=\vec{n}/|\vec{n}| der normierte Normalenvektor der Fläche ist:

\sqrt{\tilde{g}}=\sqrt{EG-F^{2}}=\left|\vec{b}_{u_{1}}\times\vec{b}_{u_{2}}\right|=\det\left[\vec{b}_{u_{1}},\vec{b}_{u_{2}},\hat{n}\right]

Der inverse metrische Tensor der Fläche lautet:

\underline{\underline{\tilde{g}}}^{-1}=\frac{1}{\tilde{g}}\left(\begin{array}{cc} G & -F\\ -F & E \end{array}\right)

Koordinatenfläche: Äußere Geometrie[Bearbeiten]

Griechische Indizes laufen im Folgenden über den Bereich 1,2 und kennzeichnen so Koordinaten und Basisvektoren in der Fläche.

Die partielle Ableitung des normierten Normalenvektors \hat{n} nach der Koordinate u_\beta lässt sich als Linearkombination der Basisvektoren der Fläche \vec{e}_\alpha darstellen. Dies folgt aus der Normierungsbedingung \hat{n}\cdot\hat{n}=1 durch Ableiten \hat{n}\cdot\partial_{\beta}\hat{n}=0. Somit ist \partial_{\beta}\hat{n} orthogonal zur Flächennormale \hat{n} und muss folglich in der Fläche liegen. Man führt eine neue Größe h ein, der ein Tensor zweiter Stufe ist:

\partial_{\beta}\hat{n}=-\sum_{\alpha=1}^{2}h_{\ \beta}^{\alpha}\vec{e}_{\alpha}=-\sum_{\alpha=1}^{2}h_{\alpha\beta}\vec{e}_{\alpha}^{\ *}

Der Tensor h wird in der Literatur teilweise Flächentensor zweiter Stufe, Krümmungstensor oder Haupttensor genannt. Die kovarianten Koordinaten h_{\alpha\beta} lassen sich wie folgt berechnen, wobei \hat{n}=\left(\vec{b}_{u_{1}}\times\vec{b}_{u_{2}}\right)/\sqrt{\tilde{g}} gilt:

h_{\alpha\beta}=-\vec{e}_{\alpha}\cdot\partial_{\beta}\hat{n}=-\partial_{\beta}\underbrace{(\vec{e}_{\alpha}\cdot\hat{n})}_{=0}+\hat{n}\cdot\partial_{\beta}\vec{e}_{\alpha}=\hat{n}\cdot\partial_{\beta}\vec{e}_{\alpha}=\frac{1}{\sqrt{\tilde{g}^{\,}}}\det\left[\vec{b}_{u_{1}},\vec{b}_{u_{2}},\partial_{\beta}\vec{e}_{\alpha}\right]

Dies lässt sich auch umschreiben zu (siehe zweite Fundamentalform):

h_{\alpha\beta}=\hat{n}\cdot\frac{\partial^{2}\vec{r}}{\partial u_{\beta}\partial u_{\alpha}}=\sum_{i,j,k=1}^{3}\frac{1}{\sqrt{\tilde{g}^{\,}}}\epsilon_{ijk}\frac{\partial x_{i}}{\partial u_{1}}\frac{\partial x_{j}}{\partial u_{1}}\frac{\partial^{2}x_{k}}{\partial u_{\beta}\partial u_{\alpha}}=:\left(\begin{array}{cc} L & M\\ M & N \end{array}\right)_{\alpha\beta}

Die h_{\alpha\beta} lassen sich mit den Christoffel-Symbolen zweiter Art in Verbindung bringen. Es gelte im Folgenden \hat{n}=\vec{e}_{3}^{\ *}:

h_{\alpha\beta}=\hat{n}\cdot\partial_{\beta}\vec{e}_{\alpha}=\hat{n}\cdot\sum_{i=1}^{3}\vec{e}_{i}\Gamma_{\alpha\beta}^{i}=\sum_{i=1}^{3}\underbrace{\vec{e}_{3}^{\ *}\cdot\vec{e}_{i}}_{\delta_{i}^{3}}\Gamma_{\alpha\beta}^{i}=\Gamma_{\alpha\beta}^{3}

Daraus folgen die Gauß-Weingarten-Gleichungen:

\partial_{\beta}\vec{e}_{\alpha}=\sum_{\gamma=1}^{2}\Gamma_{\alpha\beta}^{\gamma}\vec{e}_{\gamma}+h_{\alpha\beta}\hat{n}\ ,\quad\partial_{\beta}\hat{n}=-\sum_{\gamma=1}^{2}h_{\ \beta}^{\gamma}\vec{e}_{\gamma}

Die zweite Fundamentalform hängt von der Lage der Fläche im umgebenden Raum ab und wird für Krümmungsberechnungen benötigt. Mit Hilfe des gemischt kontravariant-kovarianten Tensors h_{\ \beta}^{\alpha}

h_{\ \beta}^{\alpha}=\sum_{\gamma=1}^{2}\tilde{g}^{\alpha\gamma}h_{\gamma\beta}=\frac{1}{\tilde{g}}\left(\begin{array}{cc} GL-FM & GM-FN\\ -FL+EM & -FM+EN \end{array}\right)_{\ \beta}^{\alpha}

werden die Hauptkrümmungen (Eigenwerte von h_{\ \beta}^{\alpha}), die mittlere Krümmung H=\operatorname{Spur}\left(h_{\ \beta}^{\alpha}\right)/2 und die Gaußsche Krümmung K=\det\left(h_{\ \beta}^{\alpha}\right) der Fläche definiert.

Der Riemannsche Krümmungstensor lässt sich durch das Tensorprodukt R_{\ \alpha\beta\gamma}^{\nu}=h_{\ \beta}^{\nu}h_{\alpha\gamma}-h_{\ \gamma}^{\nu}h_{\alpha\beta} ausdrücken. Weitere Integrabilitätsbedingungen sind die Mainardi-Codazzi-Gleichungen \nabla_{\gamma}h_{\alpha\beta}-\nabla_{\beta}h_{\alpha\gamma}=0.

Integrationselemente in 3 Dimensionen[Bearbeiten]

Kurvenelement[Bearbeiten]

Ein vektorielles Wegelement oder Kurvenelement \mathrm{d} \vec r kann als totales Differential des Ortsvektors dargestellt werden.

\text{d}\vec{r}=\sum\limits _{i=1}^{3}{\frac{\partial\vec{r}}{\partial u_{i}}\text{d}u_{i}}=\sum\limits _{i=1}^{3}{\vec{b}_{u_{i}}\text{d}u_{i}}=\sum\limits _{i=1}^{3}{\vec{e}_{u_{i}}h_{u_{i}}\text{d}u_{i}}

Die Differentiale in Richtung der u_{i}-Koordinatenlinien können identifiziert werden:

\operatorname{d}\vec{r}_{u_{i}}=\vec{b}_{u_{i}}\operatorname{d}u_{i}=\vec{e}_{u_{i}}h_{u_{i}}\operatorname{d}u_{i}

Es ist zu beachten, dass der Index in \operatorname{d}\vec{r}_{u_{i}} kein kovarianter Index ist.

Mit Hilfe des vektoriellen Wegelements können nun Bogen-, Flächen- und Volumenelement bestimmt werden.

Bogenelement[Bearbeiten]

Das skalare Wegelement oder Längenelement bzw. Bogenelement ist definiert über \text{d}s =|\text{d}\vec{r}\,|

\begin{align}
\text{d}s & =\sqrt{\text{d}\vec{r}\,^{2}}=\sqrt{\sum_{i=1}^{3}\operatorname{d}\vec{r}_{u_{i}}\cdot\operatorname{d}\vec{r}_{u_{i}}}=\sqrt{\sum_{i,j=1}^{3}\vec{b}_{u_{i}}\cdot\vec{b}_{u_{j}}\text{d}u_{i}\text{d}u_{j}}=\sqrt{\sum_{i,j=1}^{3}g_{ij}\,\text{d}u_{i}\text{d}u_{j}}\\
 & =\sqrt{g_{11}\left(\text{d}u_{1}\right)^{2}+g_{22}\left(\text{d}u_{2}\right)^{2}+g_{33}\left(\text{d}u_{3}\right)^{2}+2g_{12}\text{d}u_{1}\text{d}u_{2}+2g_{13}\text{d}u_{1}\text{d}u_{3}+2g_{23}\text{d}u_{2}\text{d}u_{3}}
\end{align}

Mit physikalischen (normierten) Basisvektoren gilt:

\text{d}s=\sqrt{\left(h_{u_{1}}\text{d}u_{1}\right)^{2}+\dots +2\left(\vec{e}_{u_{1}}\cdot\vec{e}_{u_{2}}\right)h_{u_{1}}h_{u_{2}}\text{d}u_{1}\text{d}u_{2}+\dots }

für orthogonale Koordinaten \vec{e}_{u_{i}}\cdot \vec{e}_{u_{j}}=\delta _{ij} gilt: g_{ij}=h_{u_{i}}^{2}\delta_{ij}

\text{d}s=\sqrt{\left( h_{u_{1}}\text{d}u_{1} \right)^{2}+\left( h_{u_{2}}\text{d}u_{2} \right)^{2}+\left( h_{u_{3}}\text{d}u_{3} \right)^{2}}

Spezialfall: Verläuft die Kurve in der Ebene u_{3}=\text{const}, dann gilt die erste Fundamentalform

\text{d}s=\sqrt{\left(h_{u_{1}}\text{d}u_{1}\right)^{2}+\left(h_{u_{2}}\text{d}u_{2}\right)^{2}+2\left(\vec{e}_{u_{1}}\cdot\vec{e}_{u_{2}}\right)h_{u_{1}}h_{u_{2}}\text{d}u_{1}\text{d}u_{2}}=\sqrt{E\left(\text{d}u_{1}\right)^{2}+G\left(\text{d}u_{2}\right)^{2}+2F\text{d}u_{1}\text{d}u_{2}}

Flächenelement[Bearbeiten]

Das vektorielle Flächenelement einer Koordinatenfläche lautet

\text{d}\vec{A}=\sum_{i=1}^{3}\text{d}\vec{A}_{i}\quad\text{mit}\quad\epsilon_{ijk}\text{d}\vec{A}_{i}=\pm\text{d}\vec{r}_{u_{j}}\times\text{d}\vec{r}_{u_{k}}=\pm\vec{b}_{u_{j}}\times\vec{b}_{u_{k}}\,\text{d}u_{j}\text{d}u_{k}=\pm\sqrt{g}\,\vec{b}_{u_{i}}^{\ *}\,\text{d}u_{j}\text{d}u_{k}

Das Vorzeichen hängt von der Orientierung des Flächenelements ab. Die Größe \text{d}A=|\text{d}\vec{A}| heißt skalares Flächenelement.

Wir betrachten ohne Beschränkung der Allgemeinheit die Fläche u_{3}=\text{const}:

\text{d}\vec{A}_{3}=\pm\text{d}\vec{r}_{u_{1}}\times\text{d}\vec{r}_{u_{2}}=\pm\vec{b}_{u_{1}}\times\vec{b}_{u_{2}}\,\text{d}u_{1}\text{d}u_{2}=\pm\sqrt{g}\,\vec{b}_{u_{3}}^{\ *}\,\text{d}u_{1}\text{d}u_{2}
\begin{align}
\text{d}A_{3} & =\left|\text{d}\vec{A}_{3}\right|=\left|\vec{b}_{u_{1}}\times\vec{b}_{u_{2}}\right|\text{d}u_{1}\text{d}u_{2}=\left|\sqrt{g}\,\vec{b}_{u_{3}}^{\ *}\right|\text{d}u_{1}\text{d}u_{2}=\left|\vec{n}\right|\text{d}u_{1}\text{d}u_{2}\\
 & =\sqrt{\vec{b}_{u_{1}}^{\ 2}\vec{b}_{u_{2}}^{\ 2}-\left(\vec{b}_{u_{1}}\cdot\vec{b}_{u_{2}}\right)^{2}}\text{d}u_{1}\text{d}u_{2}=\sqrt{EG-F^{2}}\,\text{d}u_{1}\text{d}u_{2}=\sqrt{\tilde{g}}\,\text{d}u_{1}\text{d}u_{2}
\end{align}

Mit physikalischen (normierten) Basisvektoren gilt:

\text{d}\vec{A}_{3}=\pm\vec{e}_{u_{1}}\times\vec{e}_{u_{2}}h_{u_{1}}h_{u_{2}}\text{d}u_{1}\text{d}u_{2}
\text{d}A_{3}=\left|\vec{e}_{u_{1}}\times\vec{e}_{u_{2}}\right|\left|h_{u_{1}}h_{u_{2}}\right|\text{d}u_{1}\text{d}u_{2}

Für orthogonale Koordinaten gilt:

\text{d}\vec{A}_{3}=\pm\vec{e}_{u_{3}}h_{u_{1}}h_{u_{2}}\text{d}u_{1}\text{d}u_{2}=\pm\vec{e}_{u_{3}}\sqrt{EG}\,\text{d}u_{1}\text{d}u_{2}
\text{d}A_{3}=\left|h_{u_{1}}h_{u_{2}}\right|\text{d}u_{1}\text{d}u_{2}=\sqrt{EG}\,\text{d}u_{1}\text{d}u_{2}

Volumenelement[Bearbeiten]

Das Volumenelement lautet, wobei sich der Betrag der Funktionaldeterminante \sqrt{g} identifizieren lässt:

\text{d}V=\left|\text{d}\vec{r}_{u_{1}}\cdot\left(\text{d}\vec{r}_{u_{2}}\times\text{d}\vec{r}_{u_{3}}\right)\right|=\left|\det[\text{d}\vec{r}_{u_{1}},\text{d}\vec{r}_{u_{1}},\text{d}\vec{r}_{u_{3}}]\right|=\left|\det[\vec{b}_{u_{1}},\vec{b}_{u_{2}},\vec{b}_{u_{3}}]\right|\text{d}u_{1}\text{d}u_{2}\text{d}u_{3}=\left|\sqrt{g}\right|\text{d}u_{1}\text{d}u_{2}\text{d}u_{3}

Mit physikalischen (normierten) Basisvektoren gilt:

\text{d}V=\left|\det[\vec{e}_{u_{1}},\vec{e}_{u_{2}},\vec{e}_{u_{3}}]\right|\left|h_{u_{1}}h_{u_{2}}h_{u_{3}}\right|\text{d}u_{1}\text{d}u_{2}\text{d}u_{3}=\left|\sqrt{g}\right|\text{d}u_{1}\text{d}u_{2}\text{d}u_{3}

Für orthogonale Koordinaten gilt:

\text{d}V=\left| h_{u_{1}}h_{u_{2}}h_{u_{3}} \right|\text{d}u_{1}\text{d}u_{2}\text{d}u_{3}

Differentialoperatoren in 3 Dimensionen[Bearbeiten]

Spezialfall: Orthogonale Koordinatensysteme[Bearbeiten]

Dieser Spezialfall ist aus verschiedenen Gründen besonders wichtig (z. B. für Physiker und Ingenieure), u.a. weil die gebräuchlichsten krummlinigen Koordinatensysteme (etwa sphärische und elliptische Koordinaten) dazugehören und weil erschwerende mathematische Begriffe, etwa kovariant und kontravariant bzw. der mit dem *-Symbol verbundene Begriff des Dualen bzw. die Γ-Koeffizienten hier entfallen. Ferner hat man es immer mit orthogonalen Basen (orthonormierte Einheitsvektoren) zu tun. (Die Basisvektoren sind nur orthogonal, aber nicht notwendig normiert. Erst das zugehörige Einheitsvektorsystem ist orthonormiert.) [2].

Es werden die Differentialoperatoren Gradient, Divergenz, Rotation und Laplace für orthogonale Koordinatensysteme angegeben[3]:

  • Gradient einer skalaren Funktion \Phi(\mathbf u) (eigentlich einer Schachtelfunktion):
\begin{align}
\vec{\nabla}\Phi & =\sum\limits _{i=1}^{3}{\vec{e}_{u_{i}}\frac{1}{h_{u_{i}}}\frac{\partial\Phi}{\partial u_{i}}}\\
 & =\vec{e}_{u_{1}}\frac{1}{h_{u_{1}}}\frac{\partial\Phi}{\partial u_{1}}+\vec{e}_{u_{2}}\frac{1}{h_{u_{2}}}\frac{\partial\Phi}{\partial u_{2}}+\vec{e}_{u_{3}}\frac{1}{h_{u_{3}}}\frac{\partial\Phi}{\partial u_{3}}
\end{align}

Beachte, dass nicht nur \Phi, sondern alle genannten Größen, auch die Basisvektoren und die h-Koeffizienten, von u abhängen können.

\begin{align}
\vec{\nabla}\cdot\vec{a} & =\frac{1}{h_{u_{1}}h_{u_{2}}h_{u_{3}}}\sum_{j=1}^{3}\frac{\partial}{\partial u_{j}}\left(\frac{h_{u_{1}}h_{u_{2}}h_{u_{3}}}{h_{u_{j}}}a_{u_{j}}\right)\\
 & =\frac{1}{h_{u_{1}}h_{u_{2}}h_{u_{3}}}\left[\frac{\partial}{\partial u_{1}}\left(h_{u_{2}}h_{u_{3}}a_{u_{1}}\right)+\frac{\partial}{\partial u_{2}}\left(h_{u_{1}}h_{u_{3}}a_{u_{2}}\right)+\frac{\partial}{\partial u_{3}}\left(h_{u_{1}}h_{u_{2}}a_{u_{3}}\right)\right]
\end{align}
\begin{align}
\vec{\nabla}\times\vec{a} & =\frac{1}{h_{u_{1}}h_{u_{2}}h_{u_{3}}}\sum_{i,j,k=1}^{3}\epsilon_{ijk}h_{u_{i}}\vec{e}_{u_{i}}\frac{\partial}{\partial u_{j}}\left(h_{u_{k}}a_{u_{k}}\right)\\ 
 & =\frac{1}{h_{u_{1}}h_{u_{2}}h_{u_{3}}}\left|\begin{matrix}h_{u_{1}}\vec{e}_{u_{1}} & h_{u_{2}}\vec{e}_{u_{2}} & h_{u_{3}}\vec{e}_{u_{3}}\\ \frac{\partial}{\partial u_{1}} & \frac{\partial}{\partial u_{2}} & \frac{\partial}{\partial u_{3}}\\ h_{u_{1}}a_{u_{1}} & h_{u_{2}}a_{u_{2}} & h_{u_{3}}a_{u_{3}} \end{matrix}\right|\\
 & =\frac{\vec{e}_{u_{1}}}{h_{u_{2}}h_{u_{3}}}\left(\frac{\partial(h_{u_{3}}a_{u_{3}})}{\partial u_{2}}-\frac{\partial(h_{u_{2}}a_{u_{2}})}{\partial u_{3}}\right)+\frac{\vec{e}_{u_{2}}}{h_{u_{1}}h_{u_{3}}}\left(\frac{\partial(h_{u_{1}}a_{u_{1}})}{\partial u_{3}}-\frac{\partial(h_{u_{3}}a_{u_{3}})}{\partial u_{1}}\right)+\frac{\vec{e}_{u_{3}}}{h_{u_{1}}h_{u_{2}}}\left(\frac{\partial(h_{u_{2}}a_{u_{2}})}{\partial u_{1}}-\frac{\partial(h_{u_{1}}a_{u_{1}})}{\partial u_{2}}\right)
\end{align}
\begin{align}
\Delta\Phi & =\frac{1}{h_{u_{1}}h_{u_{2}}h_{u_{3}}}\sum_{j=1}^{3}\frac{\partial}{\partial u_{j}}\left(\frac{h_{u_{1}}h_{u_{2}}h_{u_{3}}}{h_{u_{j}}^{2}}\frac{\partial\Phi}{\partial u_{j}}\right)\\
 & =\frac{1}{h_{u_{1}}h_{u_{2}}h_{u_{3}}}\left[\frac{\partial}{\partial u_{1}}\left(\frac{h_{u_{2}}h_{u_{3}}}{h_{u_{1}}}\frac{\partial\Phi}{\partial u_{1}}\right)+\frac{\partial}{\partial u_{2}}\left(\frac{h_{u_{1}}h_{u_{3}}}{h_{u_{2}}}\frac{\partial\Phi}{\partial u_{2}}\right)+\frac{\partial}{\partial u_{3}}\left(\frac{h_{u_{1}}h_{u_{2}}}{h_{u_{3}}}\frac{\partial\Phi}{\partial u_{3}}\right)\right]
\end{align}

Man sollte hier also nicht einfach \Delta =\nabla^2 setzen, sondern die Definition \Delta \Phi=\rm{div \ grad} \ \phi benutzen. Die oben wiedergegebenen Ergebnisse erhält man in der Tat leichter auf anschaulichem Wege als aus der meist ziemlich umständlichen Rechnung, wenn man von den vorhandenen kordinatenunabhängigen Definitionen der benutzten Größen \rm{grad}, \ \rm{div} und \rm{rot} ausgeht.

Konforme Abbildung[Bearbeiten]

Nützliche orthogonale krummlinige Koordinaten in zwei Dimensionen werden unter anderem durch konforme Abbildungen erzeugt. Solche krummlinigen Koordinaten sind nicht nur orthogonal, sondern winkeltreu für beliebige Winkel. Das bedeutet u.a., dass die Längenverhältnisse zweier Basisvektoren, z. B.  | h_{u_k} | : |h_{ u_1}|, \ k=2,3,\dots , unabhängig von k den Wert 1 ergeben, sodass nicht etwa aus einer Sphäre ein Ellipsoid entsteht.

Allgemeine krummlinige Koordinatensysteme[Bearbeiten]

Schließlich werden in allgemeinen krummlinigen Koordinatensystem die Differentialoperatoren angegeben.

Im Folgenden wird die natürliche Basis benutzt und die korrekte Notation der Tensoranalysis (kontravariant = hochgestellter Index, kovariant = tiefgestellter Index) verwendet. \Phi sei ein skalares Feld und \vec{a}=a^{i}\vec{b}_{i}=a_{i}\vec{b}^{\,\, i} ein Vektorfeld.

Es wird die Schreibweise \partial_{i}=\tfrac{\partial}{\partial x^{i}} verwendet. Weiterhin werden die Christoffel-Symbole \Gamma_{ik}^{j}, die durch \partial_{k}\vec{b}_{i}=\sum_{j}\Gamma_{ik}^{j}\vec{b}_{j} definiert sind, sowie die kovariante Ableitung \nabla_{i} benutzt. Die kovariante Ableitung eines Skalars ist \nabla_{k}\Phi=\partial_{k}\Phi und die kovariante Ableitung eines Vektors ist \nabla_{k}a^{i}=\partial_{k}a^{i}+\sum_{j}\Gamma_{kj}^{i}a^{j} bzw. \nabla_{k}a_{i}=\partial_{k}a_{i}-\sum_{j}\Gamma_{ki}^{j}a_{j}.

  • Gradient eines skalaren Feldes
\mathrm{grad}\,\Phi=\sum_{i}(\nabla_{i}\Phi)\vec{b}^{\,\, i}=\sum_{i}(\partial_{i}\Phi)\vec{b}^{\,\, i}
  • Gradient eines Tensorfeldes
Für Tensoren A der Stufe n\geq 1 gibt es grundsätzlich zwei Möglichkeiten den Gradient zu definieren: Der Rechtsgradient als
\mathrm{grad}\, A = A \otimes \nabla = \sum_{k}(\partial_{k}A)\otimes\vec{b}^{\,\, k}
und der Linksgradient als
\mathrm{grad}\, A = \nabla \otimes A = \sum_{k}\vec{b}^{\,\, k}\otimes(\partial_{k}A).
Hier wird im Folgenden die Rechtsversion verwendet.
  • Gradient eines Vektorfeldes
\begin{align}
\mathrm{grad}\,\vec{a} & =\sum_{k}(\partial_{k}\vec{a})\otimes\vec{b}^{\,\, k}\\
 & =\sum_{i,k}(\nabla_{k}a^{i})\vec{b}_{i}\otimes\vec{b}^{\,\, k}=\sum_{i,k}(\partial_{k}a^{i}+a^{l}\Gamma_{lk}^{i})\vec{b}_{i}\otimes\vec{b}^{\,\, k}\\
 & =\sum_{i,k}(\nabla_{k}a_{i})\vec{b}^{\,\, i}\otimes\vec{b}^{\,\, k}=\sum_{i,k}(\partial_{k}a_{i}-a_{l}\Gamma_{ik}^{l})\vec{b}^{\,\, i}\otimes\vec{b}^{\,\, k}
\end{align}
  • Gradient eines Tensors zweiter Stufe
\begin{align}
\operatorname{grad}\underline{\underline{S}} & =\sum_{i,j,k}\partial_{k}[S_{ij}\,\vec{b}^{~i}\otimes\vec{b}^{~j}]\otimes\vec{b}^{~k}=\sum_{i,j,k}\left[\cfrac{\partial S_{ij}}{\partial u^{k}}-\Gamma_{ki}^{l}S_{lj}-\Gamma_{kj}^{l}S_{il}\right]\vec{b}^{~i}\otimes\vec{b}^{~j}\otimes\vec{b}^{~k}\\
 & =\sum_{i,j,k}\partial_{k}[S^{ij}\,\vec{b}_{i}\otimes\vec{b}_{j}]\otimes\vec{b}^{~k}=\sum_{i,j,k}\left[\cfrac{\partial S^{ij}}{\partial u^{k}}+\Gamma_{kl}^{i}S^{lj}+\Gamma_{kl}^{j}S^{il}\right]\vec{b}_{i}\otimes\vec{b}_{j}\otimes\vec{b}^{~k}\\
 & =\sum_{i,j,k}\partial_{k}[S_{~j}^{i}\,\vec{b}_{i}\otimes\vec{b}^{~j}]\otimes\vec{b}^{~k}=\sum_{i,j,k}\left[\cfrac{\partial S_{~j}^{i}}{\partial u^{k}}+\Gamma_{kl}^{i}S_{~j}^{l}-\Gamma_{kj}^{l}S_{~l}^{i}\right]\vec{b}_{i}\otimes\vec{b}^{~j}\otimes\vec{b}^{~k}\\
 & =\sum_{i,j,k}\partial_{k}[S_{i}^{~j}\,\vec{b}^{~i}\otimes\vec{b}_{j}]\otimes\vec{b}^{~k}=\sum_{i,j,k}\left[\cfrac{\partial S_{i}^{~j}}{\partial u^{k}}-\Gamma_{ik}^{l}S_{l}^{~j}+\Gamma_{kl}^{j}S_{i}^{~l}\right]\vec{b}^{~i}\otimes\vec{b}_{j}\otimes\vec{b}^{~k}
\end{align}
  • Divergenz eines Vektorfeldes
\begin{align}
\mathrm{div}\,\vec{a} & =\operatorname{Tr}(\mathrm{grad}\,\vec{a})\\
 & =\sum_{i}\nabla_{i}a^{i}=\sum_{i}\partial_{i}a^{i}+\sum_{i,j}\Gamma_{ij}^{i}a^{j}\\
 & =\sum_{i,k}\nabla_{i}a_{k}g^{ik}=\sum_{k}\left(\sum_{i}\partial_{i}a_{k}-\sum_{i,j}\Gamma_{ik}^{j}a_{j}\right)g^{ik}\\
 & =\sum_{i}\frac{1}{\sqrt{g}}\partial_{i}(\sqrt{g}a^{i})\end{align}
  • Divergenz eines Tensorfeldes
Für Tensoren A der Stufe n\geq 2 gibt es grundsätzlich zwei Möglichkeiten die Divergenz zu definieren: Die Rechtsdivergenz als \mathrm{div}\, A = A \cdot \nabla und die Linksdivergenz als \mathrm{div}\, A = \nabla \cdot A. Hier wird im Folgenden die Rechtsversion verwendet.
  • Divergenz eines Tensors zweiter Stufe
\begin{align}
\operatorname{div}\underline{\underline{S}} & =\sum_{i,j,k}\partial_{k}[S^{ij}\,\vec{b}_{i}\otimes\vec{b}_{j}]\cdot\vec{b}^{~k}=\sum_{i,j,k}\left[\nabla_{k}S^{ij}\right]\vec{b}_{i}\otimes\underbrace{\vec{b}_{j}\cdot\vec{b}^{~k}}_{\delta_{j}^{k}}=\sum_{i,k}\left[\nabla_{k}S^{ik}\right]\vec{b}_{i}\\
 & =\sum_{i,j,k}\partial_{k}[S_{i}^{~j}\,\vec{b}^{~i}\otimes\vec{b}_{j}]\cdot\vec{b}^{~k}=\sum_{i,j,k}\left[\nabla_{k}S_{i}^{~j}\right]\vec{b}^{~i}\otimes\underbrace{\vec{b}_{j}\cdot\vec{b}^{~k}}_{\delta_{j}^{k}}=\sum_{i,k}\left[\nabla_{k}S_{i}^{~k}\right]\vec{b}^{~i}\\
 & =\sum_{i,j,k}\partial_{k}[S_{~j}^{i}\,\vec{b}_{i}\otimes\vec{b}^{~j}]\cdot\vec{b}^{~k}=\sum_{i,j,k}\left[\nabla_{k}S_{~j}^{i}\right]\vec{b}_{i}\otimes\underbrace{\vec{b}^{~j}\cdot\vec{b}^{~k}}_{g^{jk}}=\sum_{i,k}\left[\nabla_{k}S^{ik}\right]\vec{b}_{i}\\
 & =\sum_{i,j,k}\partial_{k}[S_{ij}\,\vec{b}^{~i}\otimes\vec{b}^{~j}]\cdot\vec{b}^{~k}=\sum_{i,j,k}\left[\nabla_{k}S_{ij}\right]\vec{b}^{~i}\otimes\underbrace{\vec{b}^{~j}\cdot\vec{b}^{~k}}_{g^{jk}}=\sum_{i,k}\left[\nabla_{k}S_{i}^{~k}\right]\vec{b}^{~i}
\end{align}
  • Rotation eines Tensorfeldes
Für Tensoren A der Stufe n\geq 1 gibt es grundsätzlich zwei Möglichkeiten die Rotation zu definieren: Die Rechtsrotation als \mathrm{rot}\, A = A \otimes \nabla und die Linksrotation als \mathrm{rot}\, A = \nabla \otimes A. Hier wird im Folgenden die Rechtsversion verwendet:
\mathrm{rot}\, A = A \otimes \nabla = -A \times \nabla = - \partial_k A \times \vec{b}^{\ k}
  • Rotation eines Vektorfeldes
\begin{align}
\mathrm{rot}\,\vec{a} & =\sum_{i,j,k}\mathcal{E}^{ijk}\nabla_{i}a_{j}\vec{b}_{k}=\frac{1}{\sqrt{g}}\sum_{i,j,k}\epsilon^{ijk}(\partial_{i}a_{j})\vec{b}_{k}=\frac{1}{\sqrt{g}}\left|\begin{matrix}\vec{b}_{1} & \vec{b}_{2} & \vec{b}_{3}\\
\partial_{1} & \partial_{2} & \partial_{3}\\
a_{1} & a_{2} & a_{3}
\end{matrix}\right|=\frac{1}{\sqrt{g}}\sum_{i,j,k,l}\epsilon^{ijk}(\partial_{i}a^{l}g_{jl})\vec{b}_{k}\\
 & =\sum_{i,j,k}\mathcal{E}_{ijk}\nabla^{i}a^{j}\vec{b}^{\ k}=\sqrt{g}\sum_{i,j,k}\epsilon_{ijk}(\partial^{i}a^{j})\vec{b}^{\ k}=\sqrt{g}\left|\begin{matrix}\vec{b}^{\ 1} & \vec{b}^{\ 2} & \vec{b}^{\ 3}\\
\partial^{1} & \partial^{2} & \partial^{3}\\
a^{1} & a^{2} & a^{3}
\end{matrix}\right|
\end{align}
  • Laplace eines skalaren Feldes
\begin{align}
\Delta\Phi & =\mathrm{div}(\mathrm{grad}\,\Phi) \\
 & =\sum_{i}\nabla_{i}(\nabla^{i}\Phi)=\sum_{i,j}\nabla_{i}g^{ij}\nabla_{j}\Phi=\sum_{i,j}\partial_{i}g^{ij}\partial_{j}\Phi+\sum_{i,j,k}\Gamma_{ij}^{i}g^{jk}\partial_{k}\Phi \\
 & =\sum_{i,j}\frac{1}{\sqrt{g}}\partial_{i}(\sqrt{g}\, g^{ij}\partial_{j}\Phi)
\end{align}

Gradient und totales Differential[Bearbeiten]

Im Folgenden soll der Gradient in krummlinigen Koordinaten hergeleitet werden. Das totale Differential des Ortsvektors lässt sich darstellen als:

\mathrm{d}\vec{r}=\sum_{j}\partial_{j}\vec{r}\,\mathrm{d}u^{j}=\sum_{j}\vec{b}_{j}\,\mathrm{d}u^{j}\quad\Rightarrow\quad\vec{b}^{\,\,i}\cdot\mathrm{d}\vec{r}= \sum_{j}\underbrace{\vec{b}^{\,\,i}\cdot\vec{b}_{j}}_{\delta_{j}^{i}}\,\mathrm{d}u^{j}=\mathrm{d}u^{i}

Betrachte nun ein beliebiges Skalarfeld \Phi. Sein totales Differential lautet (wobei obige Darstellung von \mathrm{d}u^{i} verwendet wird):

\mathrm{d}\Phi=\sum_{i}(\partial_{i}\Phi)\,\mathrm{d}u^{i}=\sum_{i}(\partial_{i}\Phi)\,\vec{b}^{\,\, i}\cdot\mathrm{d}\vec{r}

Der Gradient \nabla\Phi ist definiert über

\mathrm{d}\Phi=\langle\nabla\Phi,\mathrm{d}\vec{r}\rangle=\nabla\Phi\cdot\mathrm{d}\vec{r}

und lässt sich also identifizieren als:

\nabla\Phi=\sum_{i}(\partial_{i}\Phi)\,\vec{b}^{\,\, i}=\sum_{i}\frac{\partial\Phi}{\partial u^{i}}\,\vec{b}^{\,\, i}

Für orthogonale Koordinaten ist ein kovarianter Basisvektor gleich \vec{b}_{i}=h_{i}\vec{e}_{i} und der dazu duale kontravariante Basisvektor \vec{b}^{\,\, i}=\frac{1}{h_{i}}\vec{e}_{i}. Somit der Gradient für orthogonale Koordinaten:

\nabla\Phi=\sum_{i}\frac{\partial\Phi}{\partial u^{i}}\,\vec{b}^{\,\, i}=\sum_{i}\frac{\partial\Phi}{\partial u^{i}}\,\frac{1}{h_{i}}\vec{e}_{i}

Für \Phi=u^k erhält man als Gradient den kontravarianten Basisvektor \vec{b}^{\,\, k}, also den Normalenvektor zur Koordinatenfläche u^k=\text{const.}.

\nabla u^{k}=\sum_{i}(\partial_{i}u^{k})\,\vec{b}^{\,\, i}=\sum_{i}\underbrace{\frac{\partial u^{k}}{\partial u^{i}}}_{\delta_{i}^{k}}\,\vec{b}^{\,\, i}=\vec{b}^{\,\, k}

Spezielle Christoffel-Symbole[Bearbeiten]

Bei der Berechnung der Divergenz wird das Christoffel-Symbol \Gamma_{ij}^{i} benötigt. Dieses lässt sich durch die Determinante g des metrischen Tensors ausdrücken:

\sum_{i}\Gamma_{ij}^{i}=\sum_{i,k}\cfrac{g^{ki}}{2}\frac{\partial g_{ik}}{\partial u^{j}}=\sum_{i,k}\cfrac{1}{2g}\frac{\partial g}{\partial g_{ik}}\frac{\partial g_{ik}}{\partial u^{j}}=\cfrac{1}{2g}\frac{\partial g}{\partial u^{j}}=\frac{1}{2g}\partial_{j}g=\frac{1}{\sqrt{g}}\partial_{j}\sqrt{g}

was aus g^{ij}=\frac{1}{g}\frac{\partial g}{\partial g_{ij}} und folgender Beziehung folgt:

\sum_{ij}g^{ij}\frac{\partial g_{ij}}{\partial u_{k}}=\sum_{ijl}\Gamma_{ik}^{l}g_{lj}g^{ij}+\sum_{ijl}\Gamma_{jk}^{l}g_{il}g^{ij}=\sum_{il}\Gamma_{ik}^{l}\delta_{l}^{i}+\sum_{jl}\Gamma_{jk}^{l}\delta_{l}^{j}=\sum_{i}\Gamma_{ik}^{i}+\sum_{j}\Gamma_{jk}^{j}=2\sum_{i}\Gamma_{ik}^{i}

Somit erhält man für Divergenz und Laplace:

\begin{align}\mathrm{div}\,\vec{a} & =\sum_{i}\partial_{i}a^{i}+\sum_{i,j}\Gamma_{ji}^{j}a^{i}=\sum_{i}\partial_{i}a^{i}+\sum_{i}\frac{1}{\sqrt{g}}(\partial_{i}\sqrt{g})a^{i} =\sum_{i}\frac{1}{\sqrt{g}}\partial_{i}(\sqrt{g}a^{i})\end{align}
\begin{align} \Delta\Phi & =\sum_{i}\partial_{i}g^{ij}\partial_{j}\Phi+\sum_{i,j,k}\Gamma_{ki}^{k}g^{ij}\partial_{j}\Phi=\sum_{i}\partial_{i}g^{ij}\partial_{j}\Phi+\sum_{i,j}\frac{1}{\sqrt{g}}(\partial_{i}\sqrt{g})g^{ij}\partial_{j}\Phi =\sum_{i,j}\frac{1}{\sqrt{g}}\partial_{i}(\sqrt{g}\, g^{ij}\partial_{j}\Phi)\end{align}

Divergenz in koordinatenfreier Darstellung[Bearbeiten]

Die koordinatenfreie Definition der Divergenz führt diese als "Quellendichte" ein:


\operatorname{div}\vec{F}=\lim_{\Delta V\to0}\frac{1}{\Delta V}\oint\limits _{\partial(\Delta V)}\!\mathrm{d}\vec{A}\cdot\vec{F}

Dabei ist \Delta V ein beliebiges Volumen, wobei der Fluss \mathrm{d}\vec{A}\cdot\vec{F} über den Rand \partial(\Delta V) dieses Volumenelements integriert wird. Im Folgenden sei dieses Volumen ein (infinitesimal) kleines Parallelepiped am Raumpunkt \vec{r}=(u_{0}^{1},u_{0}^{2},u_{0}^{3}), das von den Vektoren \vec{b}_{i}\Delta u^{i}=\vec{e}_{i}h_{i}\Delta u^{i} in Richtung der u^{i}-Koordinatenlinien aufgespannt wird, d. h. jede Koordinate läuft im Intervall u^{i}\in I^{i}:=[u_{0}^{i},u_{0}^{i}+\Delta u^{i}]. Die Kantenlänge ist h_{i}\Delta u^{i}, wobei die Kanten \vec{e}_{i} nicht notwendigerweise orthogonal zueinander sind. Das Volumen berechnet sich im Allgemeinen zu:


\Delta V=\left|\det[\vec{b}_{1},\vec{b}_{2},\vec{b}_{3}]\right|\Delta u^{1}\Delta u^{2}\Delta u^{3}=\sqrt{g}\,\Delta u^{1}\Delta u^{2}\Delta u^{3}

Das Parallelepiped ist für jede Koordinate von den Flächen u^{i}=u_{0}^{i}=\mathrm{const} und u^{i}=u_{0}^{i}+\Delta u^{i}=\mathrm{const} begrenzt. Das Flächenelement für eine Koordinatenfläche u^{i}=u_{0}^{i}=\mathrm{const} lautet in drei Dimensionen


\text{d}\vec{A}^{i}=\pm\sum_{j,k=1}^{3}\epsilon_{ijk}\vec{b}_{j}\times\vec{b}_{k}\,\text{d}u^{j}\text{d}u^{k}=\pm\sum_{j,k=1}^{3}\epsilon_{ijk}\sqrt{g}\,\vec{b}^{\ i}\,\text{d}u^{j}\text{d}u^{k}

und der lokale Fluss durch dieses Flächenelement für das Vektorfeld \vec{F}=\sum_{l}F^{l}\vec{b}_{l} ist:


\mathrm{d}\vec{A}^{i}\cdot\vec{F}=\pm\sum_{j,k,l=1}^{3}\epsilon_{ijk}\sqrt{g}\, F^{l}\underbrace{\vec{b}^{\ i}\cdot\vec{b}_{l}}_{\delta_{l}^{i}}\,\text{d}u^{j}\text{d}u^{k}=\pm\sum_{j,k=1}^{3}\epsilon_{ijk}\sqrt{g}\, F^{i}\,\text{d}u^{j}\text{d}u^{k}

Somit ist der Fluss durch die Fläche u^{1}=u_{0}^{1} (nach außen zeigendes vektorielles Flächenelement, deswegen -\mathrm{d}\vec{A}^{\,1})

\begin{align}
\Phi_{1a} & =\int\limits _{(u^{2},u^{3})\in I^{2}\times I^{3}}\!\left[-\mathrm{d}\vec{A}^{\,1}\cdot\vec{F}\right]_{(u_{0}^{1},u^{2},u^{3})}=\int\limits _{u_{0}^{2}}^{u_{0}^{2}+\Delta u^{2}}\!\mathrm{d}u^{2}\int\limits _{u_{0}^{3}}^{u_{0}^{3}+\Delta u^{3}}\!\mathrm{d}u^{2}\left[-\sqrt{g}\, F^{1}\right]_{(u_{0}^{1},u^{2},u^{3})}\\
 & \approx\left[-\sqrt{g}\, F^{1}\right]_{(u_{0}^{1},u_{0}^{2},u_{0}^{3})}\Delta u^{2}\Delta u^{3}
\end{align}

und der Fluss durch die Fläche u^{1}=u_{0}^{1}+\Delta u^{1}

\begin{align}
\Phi_{1b} & =\int\limits _{(u^{2},u^{3})\in I^{2}\times I^{3}}\!\left[\mathrm{d}\vec{A}^{\,1}\cdot\vec{F}\right]_{(u_{0}^{1}+\Delta u^{1},u^{2},u^{3})}=\int\limits _{u_{0}^{2}}^{u_{0}^{2}+\Delta u^{2}}\!\mathrm{d}u^{2}\int\limits _{u_{0}^{3}}^{u_{0}^{3}+\Delta u^{3}}\!\mathrm{d}u^{2}\left[\sqrt{g}\, F^{1}\right]_{(u_{0}^{1}+\Delta u^{1},u^{2},u^{3})}\\
 & \approx\left[\sqrt{g}\, F^{1}\right]_{(u_{0}^{1}+\Delta u^{1},u_{0}^{2},u_{0}^{3})}\Delta u^{2}\Delta u^{3}
  \approx\left[\sqrt{g}\, F^{1}\right]_{(u_{0}^{1},u_{0}^{2},u_{0}^{3})}\Delta u^{2}\Delta u^{3}+\left[\frac{\partial\sqrt{g}\, F^{1}}{\partial u^{1}}\right]_{(u_{0}^{1},u_{0}^{2},u_{0}^{3})}\Delta u^{1}\Delta u^{2}\Delta u^{3}
\end{align}

Dabei wurde der Integrand an der Stelle (u_{0}^{1},u_{0}^{2},u_{0}^{3}) in erster Ordnung in \Delta u^{i} entwickelt. Als Bilanz aus beiden erhält man


\Phi_{1}=\Phi_{1a}+\Phi_{1b}=\left[\frac{\partial\sqrt{g}\, F^{1}}{\partial u^{1}}\right]_{(u_{0}^{1},u_{0}^{2},u_{0}^{3})}\Delta u^{1}\Delta u^{2}\Delta u^{3}

Analog für die beiden anderen Koordinaten


\frac{1}{\Delta V}\oint\limits _{\partial(\Delta V)}\!\mathrm{d}\vec{A}\cdot\vec{F}=\frac{1}{\Delta V}\sum_{i=1}^{3}\Phi_{i}=\frac{1}{\sqrt{g}\,\Delta u^{1}\Delta u^{2}\Delta u^{3}}\sum_{i=1}^{3}\frac{\partial\sqrt{g}\, F^{i}}{\partial u^{i}}\Delta u^{1}\Delta u^{2}\Delta u^{3}=\frac{1}{\sqrt{g}}\sum_{i=1}^{3}\frac{\partial\sqrt{g}\, F^{i}}{\partial u^{i}}

Somit lautet die Divergenz in natürlichen F^{i} bzw. physikalischen Koordinaten \tilde{F}^{i}:


\operatorname{div}\vec{F}=\frac{1}{\sqrt{g}}\sum_{i}\partial_{i}\sqrt{g}\, F^{i}=\frac{1}{\sqrt{g}}\sum_{i}\partial_{i}\sqrt{g}\,\tilde{F}^{i}/h_{i}

Für orthogonale Koordinaten gilt:


\operatorname{div}\vec{F}=\frac{1}{h_{1}h_{2}h_{3}}\sum_{i}\partial_{i}\frac{h_{1}h_{2}h_{3}}{h_{i}}\tilde{F}^{i}

Rotation in koordinatenfreier Darstellung[Bearbeiten]

Die koordinatenfreie Definition der Rotation ist gegeben durch


(\operatorname{rot}\vec{F})\cdot\hat{n}=\lim_{\Delta A\to 0}\frac{1}{\Delta A}\oint\limits _{\partial(\Delta A)}\!\vec{F}\cdot\mathrm{d}\vec{r}

Dabei ist \Delta A eine beliebige Fläche mit Normaleneinheitsvektor \hat{n}, wobei das Linienintegral \int \mathrm{d}\vec{r}\cdot\vec{F} über den Rand \partial(\Delta A) dieser Fläche läuft.

Zunächst wird hier eine Fläche mit \hat{n}=\vec{b}^{\;3}/ |\vec{b}^{\;3}| betrachtet. Die linke Seite wird dann zu:

(\operatorname{rot}\vec{F})\cdot\hat{n}=\sum_{i=1}^{3}(\operatorname{rot}\vec{F})^{i}\vec{b}_{i}\cdot\frac{\vec{b}^{\;3}}{|\vec{b}^{\;3}|}=(\operatorname{rot}\vec{F})^{3}\frac{1}{|\vec{b}^{\;3}|}

Im Folgenden sei die Fläche \Delta A ein (infinitesimal) kleines Parallelogramm am Raumpunkt \vec{r}=(u_{0}^{1},u_{0}^{2},u_{0}^{3}), das von den Vektoren \vec{b}_{1}\Delta u^{1} und \vec{b}_{2}\Delta u^{2} aufgespannt wird. Der Flächeninhalt ist \Delta A =|\vec{b}_{1}\Delta u^{1}\times\vec{b}_{2}\Delta u^{2}|=\sqrt{g}\,|\vec{b}^{\;3}|\,\Delta u^{1}\Delta u^{2}.

Als (geschlossenen) Integrationsweg dienen die Kanten des Parallelogramms:


[u_{0}^{1},u_{0}^{2}]
\xrightarrow[\mathrm{d}\vec{r}=\vec{b}_{1}\mathrm{d}u^{1}]{\gamma_{1}}[u_{0}^{1}+\Delta u^{1},u_{0}^{2}]
\xrightarrow[\mathrm{d}\vec{r}=\vec{b}_{2}\mathrm{d}u^{2}]{\gamma_{2}}[u_{0}^{1}+\Delta u^{1},u_{0}^{2}+\Delta u^{2}]
\xrightarrow[\mathrm{d}\vec{r}=\vec{b}_{1}\mathrm{d}u^{1}]{\gamma_{3}}[u_{0}^{1},u_{0}^{2}+\Delta u^{2}]
\xrightarrow[\mathrm{d}\vec{r}=\vec{b}_{2}\mathrm{d}u^{2}]{\gamma_{4}}[u_{0}^{1},u_{0}^{2}]

Mit \vec{F}=\sum^{3}_{i=1}F_{i}\vec{b}^{\,\,i} gilt \vec{F}\cdot\mathrm{d}\vec{r}=F_{1}\,\mathrm{d}u^{1} für \gamma_{1} sowie für \gamma_{3} und \vec{F}\cdot\mathrm{d}\vec{r}=F_{2}\,\mathrm{d}u^{2} für \gamma_{2} sowie für \gamma_{4}.

Die Integrale über Weg 1 und 3 lassen sich zusammenfassen:

\begin{align}
\int_{\gamma_{1}+\gamma_{3}}\!\vec{F}\cdot\mathrm{d}\vec{r} & =\int\limits _{u_{0}^{1}}^{u_{0}^{1}+\Delta u^{1}}\!\left[F_{1}\right]_{(u^{1},u_{0}^{2},u_{0}^{3})}\mathrm{d}u^{1}+\int\limits _{u_{0}^{1}+\Delta u^{1}}^{u_{0}^{1}}\!\left[F_{1}\right]_{(u^{1},u_{0}^{2}+\Delta u^{2},u_{0}^{3})}\mathrm{d}u^{1}\\
 & =\int\limits _{u_{0}^{1}}^{u_{0}^{1}+\Delta u^{1}}\!\left(\left[F_{1}\right]_{(u^{1},u_{0}^{2},u_{0}^{3})}-\left[F_{1}\right]_{(u^{1},u_{0}^{2}+\Delta u^{2},u_{0}^{3})}\right)\mathrm{d}u^{1}
\end{align}

Entwickelt man den Integranden an der Stelle (u_{0}^{1},u_{0}^{2},u_{0}^{3}) in erster Ordnung in \Delta u^{1}, hängt der genäherte Integrand nur noch von u_{0}^{1} ab, ist also unabhängig von u^{1} und man kann das Integral einfach auswerten:


\int_{\gamma_{1}+\gamma_{3}}\!\vec{F}\cdot\mathrm{d}\vec{r}\approx\int\limits _{u_{0}^{1}}^{u_{0}^{1}+\Delta u^{1}}\!\left(-\left[\frac{\partial F_{1}}{\partial u^{2}}\right]_{(u_{0}^{1},u_{0}^{2},u_{0}^{3})}\Delta u^{2}\right)\mathrm{d}u^{1}=-\left[\frac{\partial F_{1}}{\partial u^{2}}\right]_{(u_{0}^{1},u_{0}^{2},u_{0}^{3})}\Delta u^{2}\Delta u^{1}

Eine analoge Vorgehensweise für die Integrale über Weg 2 und 4 ergibt:

\begin{align}
\int_{\gamma_{2}+\gamma_{4}}\!\vec{F}\cdot\mathrm{d}\vec{r} & =\int\limits _{u_{0}^{2}}^{u_{0}^{2}+\Delta u^{2}}\!\underbrace{\left(\left[F_{2}\right]_{(u_{0}^{1}+\Delta u^{1},u^{2},u_{0}^{3})}-\left[F_{2}\right]_{(u_{0}^{1},u^{2},u_{0}^{3})}\right)}_{\approx\left[\frac{\partial F_{2}}{\partial u^{1}}\right]_{(u_{0}^{1},u_{0}^{2},u_{0}^{3})}\Delta u^{1}}\mathrm{d}u^{2}\approx\left[\frac{\partial F_{2}}{\partial u^{1}}\right]_{(u_{0}^{1},u_{0}^{2},u_{0}^{3})}\Delta u^{1}\Delta u^{2}
\end{align}

Insgesamt erhält man die Zirkulation in der Fläche u^{3}=u_{0}^{3} um das Parallelogramm \Delta A.


\oint\limits _{\partial(\Delta A)}\!\vec{F}\cdot\mathrm{d}\vec{r}\approx\left[\frac{\partial F_{2}}{\partial u^{1}}-\frac{\partial F_{1}}{\partial u^{2}}\right]_{(u_{0}^{1},u_{0}^{2},u_{0}^{3})}\Delta u^{1}\Delta u^{2}

Für \Delta u^{1},\Delta u^{2}\to 0 werden aus den Näherungen exakte Relationen. Eingesetzt in obige Definitionsgleichung für die Rotation (alle Größen am Punkt (u_{0}^{1},u_{0}^{2},u_{0}^{3}) ausgewertet)


(\operatorname{rot}\vec{F})^{3}\frac{1}{|\vec{b}^{\;3}|}=\lim_{\Delta A\to0}\frac{1}{\sqrt{g}\,|\vec{b}^{\;3}|\,\Delta u^{1}\Delta u^{2}}\left[\frac{\partial F_{2}}{\partial u^{1}}-\frac{\partial F_{1}}{\partial u^{2}}\right]\Delta u^{1}\Delta u^{2}
\quad\implies\quad
(\operatorname{rot}\vec{F})^{3}=\frac{1}{\sqrt{g}}\left[\partial_{1}F_{2}-\partial_{2}F_{1}\right]

Analog für die beiden anderen Koordinaten unter zyklischer Vertauschung. Somit lautet die Rotation mit \mathcal{E}^{ijk}=\varepsilon^{ijk}/\sqrt{g}:


\left(\operatorname{rot}\vec{F}\right)^{i}=\frac{1}{\sqrt{g}}\sum_{jk}\varepsilon^{ijk}\partial_{j}\, F_{k} \quad \implies \quad
\operatorname{rot}\vec{F}= \sum_{ijk}\vec{b}_{i}\mathcal{E}^{ijk}\partial_{j}\, F_{k}

Die (natürliche) kovariante Koordinate F_{k} berechnet sich aus der (natürlichen) kontravarianten F^{n} mittels F_{k}=\sum_{n}g_{kn}F^{n}. Des Weiteren gilt für physikalischen Koordinaten F^{n}=\tilde{F}^{n}/h_{n} sowie \vec{b}_{i}=h_{i}\vec{e}_{i}.

Sind die Koordinaten orthogonal, gilt wegen g_{kn}=h_{k}^{2}\delta_{kn} die Beziehung F_{k}=h_{k}^{2}F^{k} sowie \sqrt{g}=h_{1}h_{2}h_{3}. Für orthogonale physikalische Koordinaten \tilde{F}^{k} gilt also F_{k}=h_{k}\tilde{F}^{k} und die Rotation lautet für diesen Spezialfall:


\operatorname{rot}\vec{F}=\frac{1}{h_{1}h_{2}h_{3}}\sum_{ijk}h_{i}\vec{e}_{i}\varepsilon^{ijk}\partial_{j}\,(h_{k}\tilde{F}^{k})

Rotation als antisymmetrischer Tensor[Bearbeiten]

Bei der Rotation treten Terme der Form \nabla_{i}a_{j}-\nabla_{j}a_{i}, was sich zu partiellen Ableitungen vereinfachen lässt, da die Christoffelsymbole in den unteren Indizes symmetrisch sind:

\nabla_{i}a_{j}-\nabla_{j}a_{i}=\partial_{i}a_{j}-\Gamma_{ij}^{k}a_{k}-\partial_{j}a_{i}+\Gamma_{ji}^{k}a_{k}=\partial_{i}a_{j}-\partial_{j}a_{i} \quad\iff\quad \sum_{i,k}\epsilon^{ijk}\Gamma_{ik}^{l}=-\sum_{i,k}\epsilon^{ijk}\Gamma_{ik}^{l}=0

Diese Größe stellt einen antisymmetrischen Tensor zweiter Stufe dar, den Rotor des Vektors \vec{a}.

Beispiele krummliniger Koordinatensysteme[Bearbeiten]

Orthogonale Koordinatensysteme[Bearbeiten]

  • Zylinderkoordinaten: (\rho,\phi,z)
\rho\geq 0\,,\quad 0\leq\phi<2\pi \,,\quad -\infty<z<\infty
x=\rho\cos\phi \,,\quad y=\rho\sin\phi \,,\quad z=z
  • Kugelkoordinaten: (r,\theta,\phi)
r\geq0 \,,\quad 0\leq\theta\leq\pi \,,\quad 0\leq\phi<2\pi
x=r\sin\theta\cos\phi \,,\quad y=r\sin\theta\sin\phi \,,\quad z=r\cos\theta
  • Parabolische Zylinderkoordinaten: (u,v,z)
-\infty<u<\infty \,,\quad v\geq 0 \,,\quad -\infty<z<\infty
x=(u^2-v^2)/2 \,,\quad y=uv \,,\quad z=z
  • Paraboloid-Koordinaten: (u,v,\phi)
u\geq 0 \,,\quad v\geq 0 \,,\quad 0\leq\phi<2\pi
x=uv\cos\phi \,,\quad y=uv\sin\phi \,,\quad z=(u^2-v^2)/2
  • Elliptische Zylinderkoordinaten: (\xi,\phi,z)
\xi\geq 0 \,,\quad 0\leq\phi<2\pi \,,\quad -\infty<z<\infty
x=a\cosh\xi\cos\phi \,,\quad y=a\sinh\xi\sin\phi \,,\quad z=z
  • Gestreckte Sphäroid-Koordinaten: (\xi,\theta,\phi)
\xi\geq0 \,,\quad 0\leq\theta\leq\pi \,,\quad 0\leq\phi<2\pi
x=a\sinh\xi\sin\theta\cos\phi \,,\quad y=a\sinh\xi\sin\theta\sin\phi \,,\quad z=a\cosh\xi\cos\theta
  • Abgeplattete Sphäroid-Koordinaten: (\xi,\vartheta,\phi)
\xi\geq0 \,,\quad -\pi/2\leq\vartheta\leq\pi/2 \,,\quad 0\leq\phi<2\pi
x=a\cosh\xi\cos\vartheta\cos\phi \,,\quad y=a\cosh\xi\cos\vartheta\sin\phi \,,\quad z=a\sinh\xi\sin\vartheta
  • Bipolar-Koordinaten: (u,v,z)
0\leq u<2\pi \,,\quad -\infty<v<\infty \,,\quad -\infty<z<\infty
x=\frac{a\sinh v}{\cosh v-\cos u} \,,\quad y=\frac{a\sin u}{\cosh v-\cos u} \,,\quad z=z
  • Ellipsoid-Koordinaten: (\lambda,\mu,\nu)
\begin{align}
\frac{x^{2}}{a^{2}-\lambda}+\frac{y^{2}}{b^{2}-\lambda}+\frac{z^{2}}{c^{2}-\lambda} & =1\ ,\quad\lambda<c^{2}<b^{2}<a^{2}\\
\frac{x^{2}}{a^{2}-\mu}+\frac{y^{2}}{b^{2}-\mu}+\frac{z^{2}}{c^{2}-\mu} & =1\ ,\quad c^{2}<\mu<b^{2}<a^{2}\\
\frac{x^{2}}{a^{2}-\nu}+\frac{y^{2}}{b^{2}-\nu}+\frac{z^{2}}{c^{2}-\nu} & =1\ ,\quad c^{2}<b^{2}<\nu<a^{2}
\end{align}

Nicht orthogonale Koordinatensysteme[Bearbeiten]

  • Alternative elliptische Zylinderkoordinaten: (\xi,\phi,z)
\xi\geq 0 \,,\quad 0\leq\phi<2\pi \,,\quad -\infty<z<\infty
x=a\xi\cos\phi \,,\quad y=b\xi\sin\phi \,,\quad z=z

Differentialgeometrie[Bearbeiten]

Krummlinige Koordinaten lassen sich als Anwendung der Differentialgeometrie ansehen, speziell als Karte auf einer differenzierbaren Mannigfaltigkeit. Im Folgenden werden Zusammenhänge zum Kalkül der Differentialformen hergestellt, da mit diesen Berechnungen koordinatenunabhängig dargestellt werden können.

Differentialformen - allgemein[Bearbeiten]

Sei M eine n-dimensionale differenzierbare Mannigfaltigkeit. Eine k-Form \omega ordnet jedem Punkt p\in M eine glatte alternierende k-Multilinearform \omega_{p} auf dem Tangentialraum T_{p}M zu. Dieses \omega_{p} ist ein reellwertiges lineares Funktional, das k-Tupeln von Vektorfeldern reelle Zahlen zuordnet:


\omega_{p}\colon\underbrace{T_{p}M\times\ldots\times T_{p}M}_{k\text{-mal}}\to\mathbb{R}

Dabei ist \omega_{p} selbst ein Element der äußeren Potenz des Tangentialraums, also von \Lambda^{k}(T_{p}^{*}M)=T_{p}^{*}M\wedge\ldots\wedge T_{p}^{*}M (es gilt dabei \Lambda^{0}(T^{*}M)=C^{\infty}(M,\mathbb{R}) und \Lambda^{1}(T^{*}M)=T^{*}M). Die Menge aller k-Formen auf M, also das Bündel beziehungsweise die disjunkte Vereinigung \textstyle \Lambda^{k}(T^{*}M)=\bigsqcup_{p\in M}\Lambda^{k}(T_{p}^{*}M), bildet den Vektorraum \Omega^{k}(M). Diese Formen haben den großen Vorteil, dass man mit ihrer Hilfe kartenunabhängig auf einer Mannigfaltigkeit integrieren kann.

In der Tensoranalysis ist \omega_{p} ein antisymmetrischer (wg. alternierend) kovarianter Tensor k-ter Stufe (wg. k-Multilinearform).

Differentialformen - Koordinatendarstellung[Bearbeiten]

Sei U ein offener Teil von M und (U,x) ein lokales Koordinatensystem (Karte) mit den lokalen Koordinaten (x^{1},\ldots,x^{n}). Dann bilden am Ort p\in U


\left\{ \vec{b}_{i}\mid i=1,\ldots n\right\} =\left\{ \partial_{i}\equiv\frac{\partial}{\partial x^{i}}\mid i=1,\ldots n\right\}

die lokale Basis des Tangentialraums T_{p}M und


\left\{ \vec{b}^{\ i}\mid i=1,\ldots n\right\} =\left\{ \mathrm{d}x^{i}\in\Omega^{1}M\mid i=1,\ldots n\right\}

die dazu duale Basis (die Dualität drückt sich durch \mathrm{d}x^{i}\,\partial_{j}=\delta_{j}^{i} aus), also die Basis des Kotangentialraums T_{p}^{*}M=\Lambda^{1}(T_{p}^{*}M)\subset\Omega^{1}M, dies sind 1-Formen auf dem Vektorraum T_{p}M.

Das k-fache äußere Produkt \wedge dieser 1-Formen \mathrm{d}x^{i} (dabei ist \mathrm{d}x^{i}\wedge\mathrm{d}x^{j} assoziativ, bilinear und antikommutativ) ist eine k-Form, wobei


\{\mathrm{d}x^{i_{1}}\wedge\ldots\wedge\mathrm{d}x^{i_{k}}\in\Omega^{k}M\mid1\leq i_{1}<\ldots<i_{k}\leq n\}

eine Basis der äußeren Algebra \Lambda^{k}(T_{p}^{*}M) über dem Kotangentialraum T_{p}^{*}M ist. Jede Differentialform \omega\in\Omega^{k}(M) hat auf allen Karten (U,x) eine eindeutige Darstellung:


\omega =\sum_{1\leq i_{1}<\ldots<i_{k}\leq n}w_{i_{1},\ldots,i_{k}}(x)\,\mathrm{d}x^{i_{1}}\wedge\ldots\wedge\mathrm{d}x^{i_{k}}

Eine 2-Form ist z.B.


\omega=\sum_{1\leq i<j\leq n}w_{ij}(x)\,\mathrm{d}x^{i}\wedge\mathrm{d}x^{j}=\sum_{1\leq i<j\leq n}w_{ij}(x)\,  \left(\mathrm{d}x^{i}\otimes\mathrm{d}x^{j}-\mathrm{d}x^{j}\otimes\mathrm{d}x^{i}\right)

was einem antisymmetrischen kovarianten Tensorfeld zweiter Stufe entspricht. Für n=3 erhält man also:


\omega=\sum_{\underset{i<j}{i,j=1}}^{3}w_{ij}(x)\,\mathrm{d}x^{i}\wedge\mathrm{d}x^{j}=w_{12}(x)\,\mathrm{d}x^{1}\wedge\mathrm{d}x^{2}+w_{13}(x)\,\mathrm{d}x^{1}\wedge\mathrm{d}x^{3}+w_{23}(x)\,\mathrm{d}x^{2}\wedge\mathrm{d}x^{3}

Verbindung zwischen Skalar- bzw. Vektorfeldern mit Differentialformen[Bearbeiten]

Für differenzierbare Skalarfelder gilt die Identität: Glatte Funktionen f\colon\, M\to\mathbb{R} sind identisch mit 0-Formen:

C^{\infty}(M,\mathbb{R})=\Omega^{0}M

Durch folgende Isomorphie lässt sich einem differenzierbaren Vektorfeld \vec{v}\in C^{\infty}(M,\mathbb{R}^{n}) eindeutig eine 1-Form zuordnen (dabei bezeichne \left\langle \cdot\mid\cdot\right\rangle das Skalarprodukt) (es wird die Einsteinsche Summenkonvention verwendet):


C^{\infty}(M,\mathbb{R}^{n})\overset{\cong}{\longrightarrow}\Omega^{1}M\ ,\quad\vec{v}=v_{i}\vec{b}^{\ i}\mapsto\left\langle \vec{v}\mid\cdot\right\rangle =v_{i}\left\langle \vec{b}^{\ i}\mid\cdot\right\rangle =v_{i}\mathrm{d}x^{i}

Mit Hilfe des Hodge-Stern-Operators (siehe unten) lassen sich einem Skalarfeld auch eine n-Form zuordnen und einem Vektorfeld eine (n-1)-Form.

Verknüpfung Tangential-/Kotangentialvektoren[Bearbeiten]

Die musikalischen Operatoren (flat \flat und sharp \sharp) beschreiben Isomorphien, die durch die Riemannsche Metrik \underline{\underline{g}}=\left\langle \partial_{i}\mid\partial_{j}\right\rangle \mathrm{d}x^{i}\otimes\mathrm{d}x^{j} induziert werden, und Tangentialvektoren auf Kotangentialvektoren bzw. umgekehrt abbilden:


\sharp:\, T_{p}M\to T_{p}^{*}M\ ,\quad v^{i}\vec{e_{i}}\mapsto v^{i}g_{ij}\vec{b}^{\ j}=v_{j}\vec{b}^{\ j}\ ,\quad v^{i}\partial_{i}\mapsto v_{j}\mathrm{d}x^{j}

\flat:\, T_{p}^{*}M\to T_{p}M\ ,\quad v_{i}\vec{b}^{\ i}\mapsto v_{i}g^{ij}\vec{b}_{j}=v^{j}\vec{b}_{j}\ ,\quad v_{i}\mathrm{d}x^{i}\mapsto v^{j}\partial_{j}

In Tensornotation entspricht dies dem Heben und Senken von Indizes.

Hodge-Stern-Operator[Bearbeiten]

Für n-dimensionale Vektorräume, die orientiert und euklidisch sind (somit muss M einer orientierten Riemannschen Mannigfaltigkeit entsprechen), existiert ein kanonischer Isomorphismus, der alternierende Multilinearformen komplementären Grades (also k und n-k) aufeinander abbildet. Dies ist der sog. Hodge-Stern-Operator:


*:\,\Omega^{k}M\overset{\cong}{\longrightarrow}\Omega^{n-k}M

Beide Vektorräume haben die Dimension \binom{n}{k}\equiv\binom{n}{n-k}.

Im dreidimensionalen Raum n=3 lässt sich somit einer 0-Form eine 3-Form zuordnen


\Omega^{0}M\overset{*}{\leftrightarrow}\Omega^{3}M\ ,\quad\rho\mapsto\rho\,\det(\cdot,\cdot,\cdot)=\rho\,\mathrm{d}x^{1}\wedge\mathrm{d}x^{2}\wedge\mathrm{d}x^{3}

und einer 1-Form eine 2-Form


\Omega^{1}M\overset{*}{\leftrightarrow}\Omega^{2}M\ ,\quad\left\langle \vec{v}\mid\cdot\right\rangle =v_{i}\mathrm{d}u^{i}\mapsto\det(\vec{v},\cdot,\cdot)=\epsilon_{\ jk}^{i}v_{i}\,\mathrm{d}x^{j}\wedge\mathrm{d}x^{k}

Somit lässt sich einem differenzierbaren Vektorfeld \vec{a} nicht nur eine 1-Form a_{1}\mathrm{d}x^{1}+a_{2}\mathrm{d}x^{2}+a_{3}\mathrm{d}x^{3} sondern auch eine 2-Form a_{1}\,\mathrm{d}x^{2}\wedge\mathrm{d}x^{3}+a_{2}\,\mathrm{d}x^{3}\wedge\mathrm{d}x^{1}+a_{3}\,\mathrm{d}x^{1}\wedge\mathrm{d}x^{2} zuordnen. Und eine differenzierbare skalare Funktion f kann sowohl einer 0-Form f wie auch einer 3-Form f\,\mathrm{d}x^{1}\wedge\mathrm{d}x^{2}\wedge\mathrm{d}x^{3} zugeordnet werden.

Durch die äußere Ableitung einer k-Form entsteht eine (k+1)-Form. Mit den musikalischen Operatoren und dem Hodge-Stern-Operator wird der De-Rham-Komplex gebildet. Die Verkettung zweier äußerer Ableitungen ist identisch Null. Hieraus lassen sich die Integralsätze der Vektoranalysis (Stokes, Gauß und Green) herleiten.

Einzelnachweise und Fußnoten[Bearbeiten]

  1. William M. Boothby: An Introduction to Differential Manifolds and Riemannian Geometry. 2. überarbeitete Auflage. Academic Press, 2002.
  2. Normierte Vektoren werden nicht durch den Vektorpfeil, sondern durch den \hat{}-Operator gekennzeichnet.
  3. Der Gradient einer Funktion \phi (\mathbf r) gibt den Vektor des steilsten Anstiegs diese Funktion an, der Skalar \rm{div } \ \mathbf a(\mathbf r) bzw. das Vektorfeld \rm{rot} \ \mathbf a geben Quellen- bzw. Wirbeldichte des Vektorfeldes \mathbf a an. Ihre Bedeutung ist unabhängig von den benutzten Koordinaten.

Literatur[Bearbeiten]

  • Günter Bärwolff: Höhere Mathematik für Naturwissenschaftler und Ingenieure. 2. Auflage, 1. korrigierte Nachdruck. Spektrum Akademischer Verlag, München u. a. 2009, ISBN 978-3-8274-1688-9.
  • Wolfgang Kühnel: Differentialgeometrie. Kurven – Flächen – Mannigfaltigkeiten. 4. überarbeitete Auflage. Vieweg, Wiesbaden 2008, ISBN 978-3-8348-0411-2.
  • Siegfried Kästner: Vektoren, Tensoren, Spinoren. Eine Einführung in den Tensorkalkül unter Berücksichtigung der physikalischen Anwendung. 2. verbesserte Auflage. Akademie-Verlag, Berlin 1964.
  • Murray R. Spiegel, Dennis Spellman, Seymour Lipschutz: Vector Analysis. Schaum's Outlines. 2. Auflage. McGraw-Hill, 2009, ISBN 978-0-0716-1545-7.
  • Heinz Schade, Klaus Neemann: Tensoranalysis. 3. überarbeitete Auflage. de Gruyter, Berlin 2009, ISBN 978-3-1102-0696-8.
  • Klaus Jänich: Vektoranalysis. 5. Auflage. Springer-Verlag, Berlin 2005, ISBN 978-3-540-23741-9.

Weblinks[Bearbeiten]

 Wikibooks: Differentialgeometrie – Lern- und Lehrmaterialien