Semidefinite Programmierung

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

In der semidefiniten Programmierung (SDP, auch semidefinite Optimierung) werden Optimierungsprobleme untersucht, deren Variablen keine Vektoren, sondern symmetrische Matrizen sind. Als Nebenbedingung wird verlangt, dass diese Matrizen positiv (oder negativ) semidefinit sind, woraus sich der Name der Problemstellung ergibt.

Anwendungen gibt es auf dem Gebiet der Approximationstheorie, der Kontrolltheorie, der kombinatorischen Optimierung, der optimalen Versuchsplanung und in der Technik.

Problemformulierung[Bearbeiten | Quelltext bearbeiten]

Gegeben sei der reelle Vektorraum der reellen, symmetrischen Matrizen versehen mit dem Frobenius-Skalarprodukt

.

Hierbei ist die Spur einer Matrix.

Des Weiteren sei der Kegel der symmetrischen, positiv semidefiniten Matrizen und die durch diesen Kegel definierte verallgemeinerte Ungleichung, die sogenannte Loewner-Halbordnung.

Normalform[Bearbeiten | Quelltext bearbeiten]

Das Optimierungsproblem

mit ist ein lineares semidefinites Programm oder einfach semidefinites Programm (kurz SDP) in Normalform. Gesucht wird also eine reelle, symmetrische Matrix , die positiv semidefinit ist, deren Skalarprodukt mit vorgegebenen Matrizen einen bestimmten Wert annimmt und die maximal bezüglich des Frobenius-Skalarprodukts ist. Manchmal werden auch die Gleichungsnebenbedingungen zusammengefasst durch eine Lineare Funktion , die durch

definiert ist. Dann lauten die Ungleichungsnebenbedingungen mit .

Ungleichungsform[Bearbeiten | Quelltext bearbeiten]

Analog zu linearen Optimierungsproblemen existiert auch die Ungleichungsform eines SDPs:

wobei und sind. Gelegentlich wird die Ungleichungsform auch geschrieben als

Hierbei entspricht der Einführung einer Schlupfvariable. Diese Form wird gerne gewählt, um Analogien zu den linearen Programmen klarzumachen. Auch hier wird gelegentlich eine lineare Funktion definiert durch

,

um die Notation zu vereinfachen und spätere Dualitätsaussagen klarer zu machen.

Ohne verallgemeinerte Ungleichungen[Bearbeiten | Quelltext bearbeiten]

Formuliert man SDP ohne verallgemeinerte Ungleichungen, so werden die Bedingungen (Normalform) und (Ungleichungsform mit Schlupfvariable) meist ausgeschrieben als „ (bzw- ) ist positiv semidefinit“.

Nichtlineare semidefinite Programme[Bearbeiten | Quelltext bearbeiten]

Gelegentlich werden auch nichtlineare semidefinite Programme betrachtet, diese haben dann entweder keine lineare Zielfunktion mehr oder nichtlineare Restriktionen.

Klassifikation und Spezialfälle[Bearbeiten | Quelltext bearbeiten]

Als konvexe Optimierungsprobleme[Bearbeiten | Quelltext bearbeiten]

Semidefinite Programme sind immer konvexe Optimierungsprobleme. Dies folgt daraus, dass alle Gleichungsrestriktionen immer affin-linear sind und alle Ungleichungsrestriktionen (unter Verwendung von verallgemeinerten Ungleichungen) immer affin-linear sind und damit auch immer K-konvexe Funktionen sind. Damit ist die Restriktionsmenge konvex. Da außerdem die Zielfunktion immer linear ist, handelt es sich immer um ein (abstraktes oder verallgemeinertes) konvexes Problem, unabhängig ob es als Minimierungsproblem oder als Maximierungsproblem formuliert ist.

Als konisches Programm[Bearbeiten | Quelltext bearbeiten]

Semidefinite Programme sind konische Programme auf dem Vektorraum der symmetrischen reellen Matrizen versehen mit dem Frobenius-Skalarprodukt und unter Verwendung des Kegels der positiv semidefiniten Matrizen. Der lineare Unterraum des wird in der Normalform durch den Kern der Abbildung , also durch die Lösungsmenge der Gleichung , beschreiben. In der Ungleichungsform mit Schlupfvariable wird der Unterraum durch das Bild der Abbildung beschrieben.

Spezialfall lineare Programme[Bearbeiten | Quelltext bearbeiten]

Ein Spezialfall eines semidefiniten Programmes ist ein lineares Programm. Dazu ersetzt man alle auftretenden Matrizen durch Diagonalmatrizen. Dadurch reduziert sich die Anforderung, dass positiv semidefinit sein soll, zu , das Frobenius-Skalarprodukt geht zum Standardskalarprodukt über und damit werden die Gleichungsrestriktionen zu einem linearen Gleichungssystem.

Beispiel[Bearbeiten | Quelltext bearbeiten]

Will man eine symmetrische Matrix finden, für die die Summe der k größten Eigenwerte so klein wie möglich ist, kann man das als Problem der semidefiniten Programmierung formulieren. Dabei minimiert man als Zielfunktion die Variable t, von der man in einer Nebenbedingung fordert, dass sie größer oder gleich der Summe der k größten Eigenwerte von X ist. Diese Nebenbedingung ist sehr schwierig zu handhaben, weil es keine leicht zu berechnende Funktion gibt, die zu einer Matrix die Eigenwerte angibt, schon gar nicht in einer sortierten Form. Allerdings kann man die Nebenbedingung äquivalent durch die folgenden drei Bedingungen ausdrücken:[1]

  1. .

Dabei ist E die Einheitsmatrix, t und s sind reelle Variablen, X und Z sind Matrixvariablen. Diese Bedingungen sind mathematisch leichter zu behandeln, obwohl sie auf den ersten Blick schwieriger aussehen. Alle lassen sich einfach berechnen, da sie linear in den Variablen sind. Auch die Berechnung der Spur ist einfach. Für die Überprüfung auf positive Semidefinitheit für die zweite und dritte Bedingung gibt es spezielle Verfahren, die dann zur Lösung des Problems herangezogen werden.

Dualität[Bearbeiten | Quelltext bearbeiten]

Lagrange-Dualität[Bearbeiten | Quelltext bearbeiten]

Ist ein SDP in Normalform gegeben durch

,

so lässt sich das duale Problem bezüglich der Lagrange-Dualität wie folgt formulieren. Man formuliert die Gleichungsnebenbedingungen um zu . Damit erhält man als Lagrange-Funktion

.

und unter Ausnutzung der Selbstdualität des semidefiniten Kegels das duale Problem

.

fungiert hier als Schlupfvariable. Dies ist ein SDP in Ungleichungsform. Für das genaue Vorgehen siehe Lagrange-Dualität konischer Programme.

Analog zu den konischen Programmen erhält man auch als duales Problem eines SDPs in Ungleichungsform

das SDP in Normalform

,

Somit sind die SDPs abgeschlossen bezüglich der Lagrange-Dualität und das duale Problem des dualen Problems ist stets wieder das primale Problem. Außerdem gilt stets die schwache Dualität, also dass der Zielfunktionswert des dualen Problems stets kleiner ist als der Zielfunktionswert des primalen Problems. Ist außerdem die Slater-Bedingung erfüllt (siehe unten), so gilt die starke Dualität, die Optimalwerte des primalen und des dualen Problems stimmen also überein.

Dualität konischer Programme[Bearbeiten | Quelltext bearbeiten]

Fasst man SDPs als abstrakte konische Programme auf, so lässt sich der lineare Unterraum durch die oben beschriebene lineare Funktion beschreiben. Er ist dann genau die Lösungsmenge der Gleichung . Somit lässt sich das primale konische Problem als SDP in Normalform schreiben.

Hierbei sei . Der für das duale Problem nötige Orthogonalraum wird dann durch den zu adjungierten Operator , der durch definiert ist, beschrieben. Somit lautet das konische duale Problem:

.

Das duale Problem ist dann also ein SDP in Ungleichungsform mit Schlupfvariable. Es gilt dann stets für alle zulässigen

Ist die Slater-Bedingung erfüllt (siehe unten) und das primale Problem hat einen endlichen Optimalwert , so hat das duale Problem eine Optimallösung , und es gilt

.

Slater-Bedingung[Bearbeiten | Quelltext bearbeiten]

Die Slater-Bedingung ist eine Voraussetzung an das primale Problem, die garantiert, dass starke Dualität gilt. Sie fordert, dass das Problem einen Punkt besitzt, der die Gleichungsnebenbedingungen erfüllt, und alle Ungleichungsnebenbedingungen strikt erfüllt, dass also bzw. für mindestens einen Punkt in allen Ungleichungsnebenbedingungen des Problems gleichzeitig gilt. Da aber genau dann gilt, wenn ist, was wiederum äquivalent dazu ist, dass eine positiv definite Matrix ist, ist die Slater-Bedingung für SDPs bereits erfüllt, wenn es eine positiv definite Matrix gibt, welche die Gleichungsnebenbedingungen erfüllt.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Florian Jarre, Josef Stoer: Optimierung. Springer, Berlin 2004, ISBN 3-540-43575-1.
  • Johannes Jahn: Introduction to the Theory of Nonlinear Optimization. 3. Auflage. Springer, Berlin 2007, ISBN 978-3-540-49378-5.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Florian Jarre, Josef Stoer: Optimierung. Springer, Berlin 2004, S. 419.

Weblinks[Bearbeiten | Quelltext bearbeiten]