Dünnbesetzte Matrix

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Besetzungsstruktur einer dünnbesetzten Matrix aus einer Finite-Elemente-Rechnung, Nichtnulleinträge erscheinen in Schwarz

In der numerischen Mathematik bezeichnet man als dünnbesetzte oder schwachbesetzte Matrix (engl. sparse matrix) eine Matrix, bei der so viele Einträge aus Nullen bestehen, dass es sich lohnt, dies auszunutzen. Bei quadratischen Matrizen mit insgesamt n^2 Einträgen sind dies viele Matrizen mit O(n) oder auch noch O(n\cdot \log n) Einträgen ungleich Null. Das Gegenstück zu einer dünnbesetzten Matrix wird vollbesetzte Matrix genannt. Der Begriff wurde von James Hardy Wilkinson eingeführt, der ihn erstmals 1971 niederschrieb.[1] Analog dazu wird ein Vektor, der zu einem Großteil aus Nullen besteht, als dünnbesetzter Vektor (engl. sparse vector) bezeichnet. Häufig sind die Zeilen- oder Spaltenvektoren einer dünnbesetzten Matrix dünnbesetzte Vektoren, es gibt aber auch dünnbesetzte Matrizen, bei denen manche Zeilen oder Spalten vollbesetzt sind.

Verwendung[Bearbeiten]

Die Diskretisierung von partiellen Differentialgleichungen führt meistens auf dünnbesetzte Matrizen, etwa auf Bandmatrizen, ebenfalls die Darstellung von vielen typischen Graphen (bei beschränktem Knotengrad, Planarität o. Ä.) über ihre Adjazenzmatrix. Zu beachten ist, dass die Inverse einer dünnbesetzten Matrix im Regelfall vollbesetzt ist, ebenso wie die LU-Zerlegung. Eine Ausnahme bilden dabei die Bandmatrizen, bei denen eine solche Zerlegung ebenfalls dünnbesetzt sein kann.

Dünnbesetzte Matrizen haben die Eigenschaft, dass sie effizient abgespeichert werden können, indem man nur Position und Wert der Nicht-Null-Einträge abspeichert. Die Position der Nichtnulleinträge wird auch als Besetzungsstruktur oder Sparsity Pattern bezeichnet. Die Auswertung eines dünnbesetzten Matrix-Vektor-Produkts kann ebenfalls effizient erfolgen, indem die Nullen in der Berechnung des Produkts nicht berücksichtigt werden.

Dieses findet insbesondere Verwendung bei Krylow-Unterraum-Verfahren zur näherungsweisen Lösung von linearen Gleichungssystemen, die nur Skalar- und Matrix-Vektor-Produkte zur Durchführung benötigen. Da die Berechnung der vollbesetzten LU-Zerlegung O(n^3) Operationen benötigt, das Matrix-Vektor-Produkt einer Matrix mit O(n) Einträgen aber nur O(n), sind diese Verfahren, falls sie nur nach wenigen Iterationen konvergieren, extrem effizient. Zur Effizienzsteigerung werden dort so genannte Vorkonditionierer eingesetzt. Für dünnbesetzte Matrizen ist hier die unvollständige LU-Zerlegung ein verbreitetes Verfahren, das eine fehlerbehaftete LU-Zerlegung berechnet, die aber eine ähnliche Besetzungsstruktur hat wie die originale Matrix und damit nicht wesentlich mehr Speicher braucht.

CRS (Compressed Row Storage) und CCS (Compressed Column Storage) sind zwei Möglichkeiten, eine dünnbesetzte Matrix platzsparend zu speichern.

Literatur[Bearbeiten]

  • Yousef Saad: Iterative Methods for Sparse Linear Systems. 2nd edition. SIAM Society for Industrial & Applied Mathematics, Philadelphia PA 2003, ISBN 0-898-71534-2.
  • Wolfgang Hackbusch: Iterative Lösung großer schwachbesetzter Gleichungssysteme (= Leitfäden der angewandten Mathematik und Mechanik. Bd. 69 = Teubner-Studienbücher. Mathematik.). 2., überarbeitete und erweiterte Auflage. Teubner, Stuttgart 1993, ISBN 3-519-12372-X.

Einzelnachweise[Bearbeiten]

  1. Tim Davis im NA-Digest 2007 Volume 07 : Issue 12