Diskussion:Konvexe Optimierung

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

hi könnte jemand den Artikel vervollständigen um einen Absatz über Dgl. Nebebedingubgen ?

einen Beitrag nach unten gesetzt. -- Jesi 15:24, 30. Dez. 2007 (CET)[Beantworten]

Karush-Kuhn-Tucker-Bedingungen[Quelltext bearbeiten]

Hallo, nachdem ich im Portal Wirtschaft unter fehlende Artikel gesehen habe, dass ein Artikel zum Thema Kuhn-Tucker-Methode gewünscht wird, habe ich auf meiner Benutzerseite begonnen einen anzufertigen.

Nur stellt sich jetzt die Frage, ob ich das was ich jetzt schreibe nicht gleich in den Artikel Konvexe Optimierung einfügen sollte, oder ob ich einen eigenständigen Artikel Karush-Kuhn-Tucker-Bedingungen erzeugen sollte? Meiner Meinung nach wäre der letztere Vorschlage fast sinnvoller, da man dann besser eine Verlinkung darauf in andere Artikel einfügen kann. Gruß --Pi666 09:16, 28. Dez. 2006 (CET)[Beantworten]

Hallo. Ich habe soeben nach einem Artikel über die KKT-Bedingungen gesucht und nichts gefunden. Erst Google auf Wikipedia hat mir diesen Artikel gebracht. Nun stelle ich mir die Frage: Braucht man die KKT nur im Falle von Konvexer Optimierung? Falls ja, könnte man vielleicht einen Redirect unter Karush-Kuhn-Tucker und KKT anlegen. Andernfalls wäre es sinnvoll, deine Beiträge zu KKT in einen separaten Artikel zu verlegen und hier nur dorthin zu verweisen, mit kurzem Summary. Ich mach' nichts, da ich fast keine Ahnung von KKT habe... Gruss --Chiccodoro 17:20, 2. Apr. 2007 (CEST)[Beantworten]
Der allgemeine mathemetische Ansatz zur Beschreibung der Kuhn Tucker Bedingungen ist sicher exzellent. Da sie zum allgemeinen Quälwerkzeug von Ökonomie-Studenten gehören, wäre vielleich noch eine Ergänzung um ein konkretes Anwendungsbeispiel (z.B CO2-Modelle oder klassisches Investitionsmodell) sinnvoll Grüße Michaelt1964 13:22, 22. Nov. 2008 (CET)[Beantworten]

Archivierung Review Januar 2007[Quelltext bearbeiten]

Bei diesem Artikel hab ich in letzter Zeit einige Anpassungen durchgeführt, außerdem habe ich einen Abschnitt zu Karush-Kuhn-Tucker-Bedingungen eingefügt, leider befürchte ich, dass der Artikel zum Teil noch zu sehr mathelastig und deshalb nicht unbedingt für jedermann verständlich sein dürfte. Somit wäre mir an dieser Stelle ein Urteil von Euerer Stelle für weitere Verbesserungen und Erweiterungen sehr wichtig. Gruß --Pi666 10:13, 12. Jan. 2007 (CET)[Beantworten]

Hallo, die Mathelastigkeit lässt sich bei diesem Thema wohl kaum vermeiden. Was mich weitaus mehr stört, ist der stellenweise sehr Howto-artige Stil: „der Einfachheit […] halber“, „In diesem Abschnitt werden einerseits notwendige Optimalitätsbedingungen vorgestellt, das heißt man versucht“, „Dieser Abschnitt ist sehr technisch gehalten, wenn man nur daran interessiert ist, ein konkretes Problem zu lösen, kann man ihn überspringen.“, „darf man sogar“, usw. Das liest sich wie ein Vorlesungsskript, aber nicht wie ein Enzyklopädieartikel. :(
Die Vorwärtsreferenz von den CQ auf die KKT-Bedingungen find ich etwas unglücklich, ich würd die zwei Abschnitte vertauschen.
(CPLD):„Für jede Untermenge der Gradienten, der Ungleichheits-Bedingungen, welche aktiv sind, und der Gradienten der Gleichheits-Bedingungen, und falls eine positive lineare Abhängigkeit im Punkt vorliegt, dann ist es positiv linear unabhängig in der Nähe von .“ Irgendwas fehlt hier. „Für $viele, dann ist es pos. lin. unabh.“ Was ist „es“?
Fragen die sich mir als Nicht-Kenner der Materie aufdrängen: Welche weiteren Lösungsverfahren bzw -ansätze gibt es? (z.B. [1], [2], [3], [4], [5] oder [6] hüpfen mich spontan an) Gibt es bekannte Probleme der konvexen Optimierung? Wo treten typischerweise konvexe Probleme auf? Viele Grüße, —mnh·· 08:26, 14. Jan. 2007 (CET)[Beantworten]
Hallo, den Anmerkungen von Mnh kann ich nur zustimmen. Weitere Punkte (als Halblaie):
  1. Wo genau ordnet sich die konvexe Optimierung im Optimization Tree ein? Bei welchen praktischen Problemen findet sie Verwendung (mit Belegen)? Ansonsten muss die Einleitung sprachlich nochmal etwas geglättet werden, ist aber ansonsten ok so. Aufgabenstellung und Beispiel genauso.
  2. Ein paar weiterführende Weblinks wären ganz schön.
  3. Wie sieht es mit der Geschichte der konvexen Optimierung aus? Wann wurden welche Lösungsverfahren von wem entwickelt? Wann wurden die jeweiligen Optimalitätsbedingungen entdeckt? Was waren Meilensteine in Theorie oder Praxis der konvexen Optimierung?
  4. Welche Größenordnungen in der Anzahl der Variablen und Bedingungen sind noch praktisch lösbar? Mir ist klar, dass das stark von den konkreten Eingabedaten abhängt, aber ich fände es zumindest interessant, ob wir hier von 10 oder von 100000 Variablen reden.
  5. Ist das vorgestellte konkrete Vorgehen für Handarbeit gedacht oder findet es in praktisch eingesetzten Implementierungen Verwendung? Welche Verfahren werden in der Praxis verwendet? Details zu verschiedenen Lösungsverfahren sollten eher in Spezialartikeln stehen, aber ein Überblick über praktisch relevante Lösungsansätze wäre hier nicht schlecht.
  6. Die complementary slackness condition heißt auf deutsch Bedingung vom komplementären Schlupf.
  7. (CPLD) ist mir komplett unverständlich.
  8. Hat die Lagrange-Funktion irgendeine anschauliche Interpretation (vielleicht zumindest in schönen Spezialfällen)?
  9. Überhaupt kann ein bißchen mehr Anschauung bei den Bedingungen nicht schaden, falls das möglich ist. Falls hinter den Optimialitätsbedingungen oder hinter den Lösungsverfahren irgendeine geometrische Interpretation steckt, wäre das erwähnenswert.
  10. Die Lagrange-Funktion und die Terme in der dritten Fritz-John-Bedingung sehen sehr ähnlich aus. Ist das ein Tippfehler oder unterscheiden die sich wirklich leicht? Lässt sich die LF in den FJB verwenden? Die dritte Bedingung würde ich sonst schreiben als „ minimiert den Term ... über alle .“ Im Moment muss man ziemlich genau hingucken, um zu sehen, dass der linke und der rechte Term fast gleich sind.
Ok, ich glaube, damit bist Du erstmal eine Weile beschäftigt. ;-) Schöne Grüße, -- Sdo 21:24, 14. Jan. 2007 (CET)[Beantworten]


Hallo und Danke für die schnelle, reichliche und vor allem konstruktive Kritik;-) Allerdings hätte ich noch ein paar Fragen zu den Anmerkungen. Zum Optimization Tree, hier würde ich sagen, dass die konvexe Optimierung in etwa die gleiche Stellung wie Linear Programming in der Grafik einnimmt, hier würde ich aber vorschlagen, dass man eine solche ähnliche Grafik beim allgemeinen Optimierungs-Artikel einfügt. Die CPLD geht vermutlich auf eine schlechte Übersetzung meinerseits zurück, hier werde ich schauen, was man draus machen kann. Des Weiteren sollten Sätze wie Dieser Abschnitt ist sehr technisch gehalten, wenn man nur daran interessiert ist, ein konkretes Problem zu lösen, kann man ihn überspringen entweder umformuliert oder rausgenommen werden, hier ist es aber wohl sinnvoll im Einzelfall zu überprüfen. Gruß --Pi666 11:10, 15. Jan. 2007 (CET)[Beantworten]




Bin mir nicht sicher wo Anmerkungen hinsollen, da das Review wohl schon vorbei ist. Es sollte darauf hingewiesen werden, dass in der Fachliteratur "konvexe Optimierung" oft "konvexe nichtglatte Optimierung" impliziert. Der Artikel (zumindest der Lagrange-Multiplikatoren Abschnitt) scheint Glattheit vorauszusetzen. Des weiteren denke ich das dieser Artikel eine andere Struktur braucht als z.B. Lineare Optimierung. Konvexe Optimierung ist mehr ein Oberbegriff als ein spezielles Teilgebiet der Optimierung. Lösungsverfahren oder typische praktische Anwendungen lassen sich z.B. kaum angeben. Alles was man wirklich über konvexe Optimierung allgemein sagen kann, scheint mir zu sein:

  1. notwendige Optimalitätsbedingungen sind auch hinreichend
  2. lokale Verfahren liefern auch globale Lösungen

Dies sind natürlich starke EIgenschaften, die viele Lösungsverfahren/-ansätze deutlich vereinfachen, bzw überhaupt erst anwendbar machen.Grothey 00:15, 8. Mär. 2007 (CET)[Beantworten]




Hallo, ich habe bereits einige Sachen aus dem Review abgearbeitet. Diese Stellen habe ich durchgestrichen und anschließend mit gekennzeichnet. Gruß --Pi666 13:27, 9. Mär. 2007 (CET)[Beantworten]

kleiner Fehler im Beispielbild[Quelltext bearbeiten]

Hallo,

mir ist gerade aufgefallen, dass in dem Bild zum Beispiel die Achsenbezeichnungen x und y vertauscht sind. Abgesehen davon ist y zwar intuitiv klar aber gar nicht definiert. Das soll als Hinweis gemeint sein, da ich selbst gerade nicht die Zeit habe diese Änderungen vorzunehmen.

MfG (nicht signierter Beitrag von 190.21.200.49 (Diskussion) 20:08, 15. Nov. 2007)

Ich habe den Autor Atler des Bildes auf seiner Diskussionsseite gebeten, das Bild zu korrigieren. -- Jesi 05:32, 25. Nov. 2007 (CET)[Beantworten]

von oben hierher gesetzt:

Ich bin der Meinung, dass das Beispiel unglücklich gewählt ist. Das resultierende Minimum ist ohnehin das Minimum der Funktion f auch ohne Nebenbedingung. (nicht signierter Beitrag von 88.65.121.211 (Diskussion) 14:51, 30. Dez. 2007)

Das stimmt. Vielleicht findet sich ja mal jemand, der das Bild überarbeitet. Der Ersteller des Bildes scheint nicht mehr aktiv zu sein, zumindest nicht unter seinem damaligen Namen. -- Sdo 23:17, 2. Jan. 2008 (CET)[Beantworten]
Ich habe das Beispiel jetzt leicht geändert, das Minimum der Funktion unter der Nebenbedingung unterscheidet sich jetzt vom Minimum ohne Nebenbedingung. Das Diagramm habe ich auch neu gezeichnet. lg KoeppiK 01:11, 26. Jun. 2009 (CEST)[Beantworten]

Die durch Gleichungen und Ungleichungen definierte Menge muss konvex sein und nichtleer sein. Affine Nebenbegingungen sind nur ein Spezialfall.

Ja, aber das ist doch in dem enthalten, was in der Einleitung steht, oder? Man lässt einfach die weg. Oder übersehe ich da etwas? Du darfst es aber gerne verständlicher formulieren, als es jetzt da steht. -- Sdo 12:41, 31. Jan. 2009 (CET)[Beantworten]

Ich habe den Artikel gelesen, um weitere Informationen hinsichtlich der Dualität der konvexen Optimierung zu erhalten. Im Artikel "Optimierung" wird erwähnt, dass auch bei konvexer Optimierung die Optimalwerte des primalen und dualen Problems übereinstimmen. Auf diesen Punkt wird in dem gesamten Artikel hier jedoch nicht eingegangen [Warum die Dualität erfüllt ist, welcher Satz dem zugrunde liegt, etc. (vergleiche Artikel "Lineare Optimierung")]. Sollte die Dualität nicht also auch hier diskutiert werden? -- MaddinM 21:30, 24. Okt. 2009 (CEST)[Beantworten]

Fischer-Burmeister-Funktion[Quelltext bearbeiten]

Kann sich da mal wer hier ranmachen? --Reiner Stoppok 01:20, 17. Mai 2011 (CEST)[Beantworten]

verallgemeinerte KKT Bedingungen[Quelltext bearbeiten]

Wer wäre denn noch für verallgemeinerte KKT-Bedingungen (in Banachräumen) oder würde das zu weit gehen? (nicht signierter Beitrag von 87.151.245.236 (Diskussion) 12:34, 7. Okt. 2011 (CEST)) [Beantworten]

Nicht lineares Programm[Quelltext bearbeiten]

Die Seite ist super zu lesen, aber ein paar Darstellungen sind ungenau. Die Regularitäts-Bedingungen oder Constraint Qualifications sind dafür da, damit die Gradienten der Nebenbedingungen (NB) linear unabhängig sind und somit Gradienten basierte Suchalgorithmen funktionieren. In konvexen Problemen ist das per Definition erfüllt. Der Fall tritt immer auf, wenn der Gradient der Zielfunktion tangential zu einer NB ist und das ist nicht auszuschließen! Die Seite behandelt also in (lesenswerter Form und) weiten Teilen das "Nicht lineare Programm." Ich werde (wenn nichts dagegen spricht) demnächst diese Seite nach "Nicht lineares Programm" umbenennen und ein paar Korrekturen durchführen in der Hoffnung nicht des Vandalismus bezichtigt zu werden. --Alva2004 (Diskussion) 13:08, 2. Mär. 2014 (CET)[Beantworten]

Definitionsbereich des konvexen Optimierungsproblems[Quelltext bearbeiten]

Es heißt Definitionsbereich des konvexen Optimierungsproblems sei konvex als Schnitt konvexer Mengen. Woher weiß man, dass die Definitionsbereiche der einzelnen Restriktionsfunktionen konvexe Mengen sind ? Eine Funktion kann doch auch konvex auf einer nicht konvexen Menge sein, oder ?

- Nein, der Definitionsbereich einer konvexen Funktion ist immer konvex. Bzw. umgekehrt, eine Funktion mit nicht konvexem Definitionsbereich ist automatisch nicht konvex.