Einsteinsche Summenkonvention

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die einsteinsche Summenkonvention ist eine Konvention zur Notation mathematischer Ausdrücke innerhalb des Ricci-Kalküls und stellt eine Indexschreibweise dar. Dieser Kalkül wird in der Tensoranalysis, der Differentialgeometrie und insbesondere in der theoretischen Physik verwendet. Die Summenkonvention wurde 1916 von Albert Einstein eingeführt. Mit ihr werden die Summenzeichen zur Verbesserung der Übersicht einfach weggelassen und stattdessen wird über doppelt auftretende Indizes summiert.

Motivation[Bearbeiten]

In der Matrix- und Tensorrechnung werden oft Summen über Indizes gebildet. Zum Beispiel lautet das Matrizenprodukt zweier n \times n-Matrizen A und B in Komponenten:

(A \cdot B)_{ij} = \sum_{k=1}^n A_{ik} \cdot B_{kj}

Hier wird über den Index k von 1 bis n summiert. Treten mehrere Matrizenmultiplikationen, Skalarprodukte oder andere Summen in einer Rechnung auf, kann dies schnell unübersichtlich werden. Mit der einsteinschen Summenkonvention lautet die Rechnung von oben dann:

(A \cdot B)_{ij} = A_{ik} \cdot B_{kj}

Formale Beschreibung[Bearbeiten]

Im einfachsten Fall der Summenkonvention gilt: Über doppelt auftretende Indizes innerhalb eines Produkts wird summiert. In der Relativitätstheorie gilt als zusätzliche Regel: Summiert wird nur, wenn der Index sowohl als oberer (kontravarianter) und als unterer (kovarianter) Index auftritt.

Die Summenkonvention verringert vor allem den Schreibaufwand. Teilweise hilft sie dabei, bestehende Zusammenhänge und Symmetrien hervorzuheben, die in der konventionellen Summenschreibweise nicht so leicht erkennbar sind.

Beispiele[Bearbeiten]

Ohne Beachtung der Indexstellung[Bearbeiten]

In den folgenden Beispielen stehen A, B für n \times n Matrizen mit Einträgen A_{ij}, B_{ij} und \vec x = \left( x_1, x_2, \dots , x_n \right),  \vec y = \left( y_1, y_2, \dots , y_n \right) für dazu passende Vektoren.

  • Standardskalarprodukt  \vec x \cdot \vec y = x_i y_i .
  • Anwendung einer Matrix auf einen Vektor:  \left(A \vec x \right)_i = A_{ij} x_j
  • Produkt mehrerer (hier 4) Matrizen:  (A B C D)_{ij} = A_{il} B_{lm} C_{mn} D_{nj}.
  • Spur einer Matrix A: \text{Spur} \, A = A_{ii}

Unter Berücksichtigung der Indexstellung[Bearbeiten]

  • Das Produkt  C^i_j zweier Tensoren mit Tensorkomponenten A^i_j und B^i_j ist  C^i_j = A^i_k B^k_j
  • Anwendung eines Tensors mit Komponenten A^i_j auf die Summe der Vektoren x^i, y^i, um Vektor z^i zu erhalten: z^i = A^i_j \left( x^j + y^j \right).
  • Ein Tensorfeld t in einer Umgebung U hat die Darstellung
t|_U = t^{i_1, \ldots , i_r}_{j_1, \ldots , j_s} \frac{\partial}{\partial x^{i_1}} \otimes \cdots \otimes \frac{\partial}{\partial x^{i_r}} \otimes \mathrm{d} x^{j_1} \otimes \cdots \otimes \mathrm{d} x^{j_s}.
Hierbei versteht man den Index des Objektes \frac{\partial}{\partial x^{i_1}} als unteren Index.

Literatur[Bearbeiten]