Definitheit

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Positiv semidefinite Matrix)
Zur Navigation springen Zur Suche springen

Definitheit ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra. Er beschreibt, welche Vorzeichen reelle quadratische Formen annehmen können, die durch Matrizen oder allgemeiner durch Bilinearformen erzeugt werden.

Definitheit von Bilinearformen und Sesquilinearformen[Bearbeiten | Quelltext bearbeiten]

Es sei ein Vektorraum über den reellen (oder komplexen) Zahlen.

Eine symmetrische Bilinearform (beziehungsweise eine hermitesche Sesquilinearform ) heißt

positiv definit, falls
positiv semidefinit, falls
negativ definit, falls
negativ semidefinit, falls

jeweils für alle , , gilt. Man beachte, dass auch im komplexen Fall wegen der geforderten Hermitizität stets reell ist.
Trifft keine dieser Bedingungen zu, heißt die Form indefinit. Genau in diesem Fall nimmt sowohl positive als auch negative Werte an.

Die obigen Bedingungen bedeuten also, dass die zugehörige quadratische Form positiv definit, positiv semidefinit, negativ definit, negativ semidefinit bzw. indefinit ist.

Gelegentlich werden diese Begriffe im reellen Fall auch für beliebige, nicht notwendig symmetrische Bilinearformen eingeführt. (Im komplexen Fall müsste man zusätzlich fordern, dass für alle der Wert reell ist. Daraus folgt jedoch schon, dass die Sesquilinearform hermitesch ist.)

Eine positiv definite symmetrische Bilinearform (bzw. hermitesche Sesquilinearform) heißt Skalarprodukt. Beispielsweise ist das Standardskalarprodukt auf dem (bzw. ) positiv definit.

Definitheit von Matrizen[Bearbeiten | Quelltext bearbeiten]

Definitionen[Bearbeiten | Quelltext bearbeiten]

Jede quadratische Matrix beschreibt eine Bilinearform auf (bzw. eine Sesquilinearform auf ). Man nennt eine quadratische Matrix deshalb positiv definit, wenn diese Eigenschaft auf die durch die Matrix definierte Bilinearform bzw. Sesquilinearform zutrifft. Entsprechend definiert man auch die anderen Eigenschaften. Dies bedeutet: Eine beliebige (ggf. symmetrische bzw. hermitesche) -Matrix ist

positiv definit, falls
positiv semidefinit, falls
negativ definit, falls
negativ semidefinit, falls

für alle -zeiligen Spaltenvektoren mit , wobei der Zeilenvektor ist, der aus dem Spaltenvektor durch Transponieren hervorgeht.

Im komplexen Fall muss der Vektor auf der linken Seite zum Zeilenvektor transponiert und zusätzlich komplex-konjugiert werden (hermitesch Adjungiertes, statt lediglich ). Damit die Ungleichungen einen Sinn ergeben, muss die linke Seite für jedes mögliche reell sein. Dies ist genau dann der Fall, wenn die Matrix hermitesch ist.

Eine Matrix, die weder positiv noch negativ semidefinit ist, nennt man „indefinit“. Genau dann nimmt (bzw. ) sowohl positive als auch negative Werte an.

Manche Autoren verwenden als englisch abuse of notation , usw. für die Definitheit statt , usw.

Kriterien für Definitheit[Bearbeiten | Quelltext bearbeiten]

Eigenwerte[Bearbeiten | Quelltext bearbeiten]

Eine quadratische symmetrische (bzw. hermitesche) Matrix ist genau dann

positiv definit, wenn alle Eigenwerte größer als null sind;
positiv semidefinit, wenn alle Eigenwerte größer oder gleich null sind;
negativ definit, wenn alle Eigenwerte kleiner als null sind;
negativ semidefinit, wenn alle Eigenwerte kleiner oder gleich null sind und
indefinit, wenn positive und negative Eigenwerte existieren.

Damit kann jedes Verfahren zur Bestimmung oder Abschätzung von Eigenwerten benutzt werden, um die Definitheit der Matrix zu bestimmen. Eine Möglichkeit sind die Gerschgorin-Kreise, die es erlauben, das Spektrum zumindest abzuschätzen. Dies reicht häufig schon aus, um die Definitheit zu bestimmen. Die Gerschgorin-Kreise geben anhand der Einträge der Matrix Mengen in der komplexen Ebene an, in denen die Eigenwerte enthalten sind, im Falle von symmetrischen Matrizen Intervalle auf der reellen Achse. Damit ist es manchmal einfach möglich, die Definitheit einer Matrix zu bestimmen. Einzelheiten hierzu, insbesondere über die Signatur von symmetrischen Bilinearformen und Matrizen, siehe Trägheitssatz von Sylvester.

Hauptminoren[Bearbeiten | Quelltext bearbeiten]

Eine symmetrische bzw. hermitesche Matrix ist genau dann positiv definit, wenn alle führenden Hauptminoren von positiv sind. Aus der Tatsache, dass genau dann negativ definit ist, wenn positiv definit ist, ergibt sich: ist genau dann negativ definit, wenn die Vorzeichen der führenden Hauptminoren alternieren, das heißt, falls alle ungeraden führenden Hauptminoren negativ und alle geraden positiv sind.

Bemerkungen

  • Für Semidefinitheit gibt es kein Kriterium, das nur die führenden Hauptminoren berücksichtigen würde,[1] was schon an der Diagonalmatrix mit Einträgen 0 und −1 zu sehen ist. Sollen die entsprechenden Aussagen vielmehr auch für den Fall der Semidefinitheit gelten, müssen im Fall positiver Semidefinitheit nun alle, nicht nur die führenden Hauptminoren nichtnegativ, im Fall negativer Semidefinitheit alle ungeraden Hauptminoren nichtpositiv sowie alle geraden Hauptminoren nichtnegativ sein.
  • Für nicht-hermitesche Matrizen gilt das Kriterium nicht. Ein Beispiel dafür ist die indefinite Matrix , deren führende Hauptminoren gleichwohl beide positiv sind.
  • Das Kriterium wird oft auch Sylvester-Kriterium genannt. Vereinzelt wird auch die Bezeichnung „Hurwitz-Kriterium“ verwendet, obwohl sich dieses ursprünglich nur auf Hurwitz-Matrizen bezog.

Gaußsches Eliminationsverfahren[Bearbeiten | Quelltext bearbeiten]

Eine reelle symmetrische quadratische Matrix ist genau dann positiv definit, wenn das Gaußsche Eliminationsverfahren bei Diagonalstrategie, das heißt ohne Zeilenvertauschungen, mit n positiven Pivotelementen durchgeführt werden kann. Diese Bedingung eignet sich vor allem für Fälle, in denen sowieso das Gauß-Verfahren angewandt werden muss.

Cholesky-Zerlegung[Bearbeiten | Quelltext bearbeiten]

Eine symmetrische Matrix ist genau dann positiv definit, wenn es eine Cholesky-Zerlegung gibt, wobei eine reguläre untere Dreiecksmatrix ist.

Diagonaldominante Matrizen[Bearbeiten | Quelltext bearbeiten]

Ist eine Matrix symmetrisch und streng diagonaldominant und sind alle Diagonalelemente von positiv, so ist positiv definit.[2]

Die Umkehrung gilt nicht. Die Matrix

ist zwar positiv definit, aber nicht streng diagonaldominant.

Symmetrischer Anteil bei allgemeinen Matrizen[Bearbeiten | Quelltext bearbeiten]

Eine reelle quadratische Matrix , die nicht notwendig symmetrisch ist, ist genau dann positiv definit, wenn ihr symmetrischer Teil

positiv definit ist. Entsprechendes gilt für „negativ definit“ und „positiv“ bzw. „negativ semidefinit“.

Bei komplexen Matrizen A ist die Situation völlig anders. Man kann für jede komplexe Matrix A den hermiteschen Anteil und den schiefhermiteschen Anteil betrachten.

Die Matrix ist dann hermitesch, es gilt und . ist genau dann positiv definit, wenn der schiefhermitesche Anteil gleich 0 und der hermitesche Anteil , der demzufolge mit übereinstimmt, positiv definit ist.

Hinreichendes Kriterium für positive Semidefinitheit[Bearbeiten | Quelltext bearbeiten]

Für eine beliebige reelle Matrix sind sowohl die Matrix als auch die Matrix stets symmetrisch und positiv semidefinit, denn aufgrund der Verschiebungseigenschaft des Standardskalarprodukts gilt für alle

und für alle

.

Abweichende Bezeichnungen[Bearbeiten | Quelltext bearbeiten]

Matrizen, die hier als positiv semidefinit bezeichnet werden, werden in der Literatur häufig auch als nichtnegativ definit (non-negative definit) bezeichnet.[3][4][5][6][7][8][9][10][11][12] Von diesen Autoren wird eine Matrix dann – abweichend von obiger Definition – als positiv semidefinit bezeichnet, wenn sie positiv semidefinit im Sinn der obigen Definition ist, aber nicht positiv definit ist, wenn also

und

gilt. Bei diesen Autoren sind also die positiv definiten Matrizen keine Teilmenge der positiv semidefiniten Matrizen.

Bedeutung[Bearbeiten | Quelltext bearbeiten]

  • Ist die Matrix symmetrisch (hermitesch) und positiv definit, dann wird durch (beziehungsweise ) ein Skalarprodukt definiert.
  • Die Einschränkung einer positiv definiten Bilinear- bzw. Sesquilinearform auf einen Untervektorraum ist wieder positiv definit, insbesondere also nicht ausgeartet. Diese Tatsache ermöglicht die Zerlegung eines Raumes in einen Untervektorraum und dessen orthogonales Komplement.
  • Die Definitheit der Hesse-Matrix spielt bei der Untersuchung von kritischen Stellen einer Funktion , also der Extremwertberechnung, eine entscheidende Rolle.
  • Die symmetrischen positiv semidefiniten Matrizen bilden im Matrizenraum einen Kegel, den sogenannten positiv semidefiniten Kegel. Dasselbe gilt auch für symmetrische negativ semidefinite Matrizen.
  • Eine schwach positiv definite Matrix kann man immer als Multiplikation zweier positiv definiter Matrizen schreiben. Insbesondere ist dann auch jede positiv definite Matrix eine schwach positiv definite Matrix.[13]
  • Die Notation (resp. ) für zwei Matrizen und wird häufig verwendet, um zu sagen, dass positiv definit (resp. semidefinit) ist.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. On Sylvester’s Criterion for Positive-Semidefinite Matrices. (PDF) IEEE, Transaction on automatic control, Juni 1973 (englisch)
  2. Spezielle Matrixeigenschaften, Richard Reiner, 9126720, Gruppe: Next Generation, deutsch
  3. Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, Abschnitt 3.14 Quadratische Formen, definite und semidefinite Matrizen, S. 985.
  4. David A. Harville: Matrix Algebra from a Statistician’s Perspective. Springer, New York 1997, ISBN 0-387-94978-X, S. 212, doi:10.1007/b98818.
  5. A. I. Khuri: Advanced Calculus with Applications in Statistics. 2. Auflage. Wiley, Hoboken 2003, S. 40.
  6. Helge Toutenburg: Lineare Modelle. Theorie und Anwendungen. 2., neu bearb. und erw. Auflage. Physica-Verlag, Heidelberg 2002, ISBN 978-3-7908-1519-1, S. 494, doi:10.1007/978-3-642-57348-4 (Mit Beiträgen von Christian Heumann).
  7. P. Kémeny: Grundbegriffe der Matrix-Algebra. In: Ludwig Fahrmeir, Alfred Hamerle, Gerhard Tutz (Hrsg.): Multivariate Statistische Verfahren. 2. Auflage. Walter de Gruyter, Berlin 1996, ISBN 978-3-11-013806-1, S. 795–829, S. 817, doi:10.1515/9783110816020.
  8. Galen R. Shorack: Probability for Statisticians (= Springer Texts in Statistics). Springer, New York 2000, ISBN 0-387-98953-6, S. 191.
  9. Karsten Schmidt, Götz Trenkler: Einführung in die Moderne Matrix-Algebra – Mit Anwendungen in der Statistik. 3. Auflage. Springer, Berlin / Heidelberg 2015, ISBN 978-3-662-46772-5, S. 96, doi:10.1007/978-3-662-46773-2.
  10. Galen R. Shorack: Probability for Statisticians (= Springer Texts in Statistics). Springer, New York 2000, ISBN 0-387-98953-6, S. 191.
  11. S. R. Searle: Matrix Algebra Usefule for Statistics. Wiley, New York 1980.
  12. Calyampudi Radhakrishna Rao, Helge Toutenburg: Linear Models – Least Squares and Alternatives. Springer, New York 1995, ISBN 978-1-4899-0024-1, S. 298, doi:10.1007/978-1-4899-0024-1.
  13. Eugene Paul Wigner: On Weakly Positive Matrices. In: The Collected Works of Eugene Paul Wigner. S. 559–563, doi:10.1007/978-3-662-02781-3_40.