„Liniensuchverfahren“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Inhalt gelöscht Inhalt hinzugefügt
AZ: Die Seite wurde neu angelegt: Unter den '''Liniensuchverfahren''' (englisch: '''line search algorithms''') versteht man in der Opt…
(kein Unterschied)

Version vom 14. Januar 2016, 17:00 Uhr

Unter den Liniensuchverfahren (englisch: line search algorithms) versteht man in der Optimierung eine Reihe von iterativen Verfahren, um das lokale Minimum einer Funktion zu finden. Die grundlegende Idee ist es, die Funktion in jedem Schritt entlang einer bestimmten Richtung zu minimieren. Beispiele für Algorithmen, die dem Liniensuchverfahren zugeordnet werden können, sind das Gradientenverfahren (Verfahren des steilsten Abstiegs) und das Newton-Verfahren.[1]

Beschreibung

Allen Liniensuchverfahren gemein ist die folgende grundlegende Vorgehensweise, um aus einem bestehenden Zwischenergebnis ein neues Zwischenergebnis zu berechnen:[1]

  1. Bestimme eine Suchrichtung in Form eines Vektors .
  2. Minimiere die eindimensionale Hilfsfunktion mit Bezug auf .
  3. Berechne die neue Lösung , wobei die gefundene Schrittweite aus Schritt 2 ist.

Das Minimum der Hilfsfunktion aus Schritt 2 wird in der Regel nicht exakt bestimmt. Falls doch, spricht man von einem exakten Liniensuchverfahren.[2]

Einzelnachweise

  1. a b Josef Kallrath: Gemischt-ganzzahlige Optimierung: Modellierung in der Praxis. Springer-Verlag, 2013, ISBN 978-3-322-80219-4, S. 87.
  2. Markos Papageorgiou, Marion Leibold, Martin Buss: Optimierung. 3. Auflage. Springer-Verlag, 2015, ISBN 978-0-387-74502-2, S. 43 ff.