Diskussion:Hesse-Matrix

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 9 Jahren von Digamma in Abschnitt Definition Hesse-Matrix
Zur Navigation springen Zur Suche springen

Kritische Punkte[Quelltext bearbeiten]

Bin da nicht mehr ganz 100%ig fit, aber: Was versteht man unter kritischen Punkten? Wohl solche, an denen alle ersten Ableitungen verschwinden, oder? Bei den "zuvor ermittelte Punkten" dürfte es sich dann um genau diese handeln, oder? Sollte man so auch hinschreiben (wenn's stimmt ;-)). --Wolfgangbeyer 16:02, 7. Nov 2004 (CET)

Danke, das ging aber flott ;-). Das heißt aber, dass man mit Hilfe der Hesse-Matrix nicht die kritischen Punkte selbst bestimmt, wie da steht, sondern ihren Charakter oder Typ oder welchen Fachterminus nimmt man da am besten? --Wolfgangbeyer 16:57, 7. Nov 2004 (CET)
Noch was: Der Fall, dass alle Eigenwerte Null sind muss "vor der Ermittlung der Eigenwerte ausgeschlossen werden´"??? Wie soll ich denn das verstehen ;-)? --Wolfgangbeyer 17:47, 7. Nov 2004 (CET)

Vermutlich ist gemeint, dass ein Eigenwert = 0 ist. Dann ist ja die Hessesche nicht mehr invertierbar, also auch nicht mehr positiv oder negativ definit? (Schluck! Ich bin schon wieder auf Mathematiker-Eis). --Philipendula 10:46, 8. Nov 2004 (CET)

Anwendungen? Wirtschaft?[Quelltext bearbeiten]

Kann jemand der Ahnung davon hat typische Anwendungen eintragen? ICXh glaub ich hab mal gehört, dass die H.-M. oft in der Wirtschaft benutzt wird, für irgendwelche speziellen Optimierungen.. --qwqch 00:00, 5. Mai 2005 (CEST)Beantworten

Beispiel wie gewünscht eingefügt[Quelltext bearbeiten]

Ich hoffe ihr könnt damit was anfangen und es ist nicht zu kurz gefasst. Man könnte dazu viel mehr erklären, aber dann müsste man so viel zu Homogenität usw. schreiben, wusste nicht ob das gewünscht war.

Habe jetzt doch das ausschweifende Beispiel aus den Wirtschaftswissenschaften entfernt. Es ist als Beispiel nicht geeignet, da es zum Verständnis Kenntnisse aus diesem Fachgebiet erfordert. Selbst ich als Physiker habe da nur Bahnhof verstanden. Wenn es sich dabei um ein bestimmtes bekanntes Verfahren handelt, dann sollte man ihm einen eigenen Artikel widmen, auf den man dann von hier aus verlinken kann. Siehe auch Wikipedia:Wie_schreibe_ich_gute_Artikel#Vorarbeiten_und_Recherche letzter Absatz. --Wolfgangbeyer 6. Jul 2005 15:41 (CEST)

Ableitung des Gradienten[Quelltext bearbeiten]

Die Hesse-Matrix entspricht der Ableitung des Gradienten und ist wegen der Vertauschbarkeit der Differentiationsreihenfolge (Satz von Schwarz) symmetrisch.

Sind die zweiten Ableitungen nicht stetig, so gilt nicht unbedingt der Satz von Schwarz. Dann ist für , der Gradient eine Abbildung . Dessen Ableitung wäre aber doch und nicht Denn ich verstehe so dass die partielle Ableitung berechnet wird und von dieser Funktion, dann die partielle Ableitung in Richtung berechnet wird.

-- Jan, 27.Juni 2006 JanCK 10:51, 28. Jul 2006 (CEST)

der gradient ist nicht immer als zeilenvektor und nicht immer als spaltenvektor definiert. je nach anwendung ist mal das eine mal das andere sinnvoll. als zeile macht es z.b. sinn, wenn man ihn als spezialfall der jakobimatrix ansieht, wobei ich mir durchaus auch vorstellen kann, dass einige auch die jakobimatrix transponiert definieren. die reihenfolge der ableitungen bei ausdruecken wie ist afaik auch nicht einheitlich geregelt. weswegen ich die derzeitige formulierung mit der transponierung fuer schlecht halte.
wie waer's damit:
Die Hesse-Matrix entspricht der Jakobi-Matrix des Gradienten. Je nach Definitionen können sich diese beiden Matrizen jedoch um eine Transponierung unterscheiden. Ist die abzuleitende Funktion zwei mal stetig differenzierbar, ist also die zweite Ableitung stetig, so ist die Hesse-Matrix wegen der Vertauschbarkeit der Differentiationsreihenfolge (Satz von Schwarz) symmetrisch. In diesem Fall ist der auf verschiedenen Definitionen beruhende Unterschied nicht mehr vorhanden.
-- 141.3.74.61 17:22, 31. Aug 2006 (CEST)


Hast wohl recht:
  • In IZE, 1995 Langenscheidt KG, Berlin und München, Seite 384:

, , es wird aber dort keine Hessematrix und kein Gradient erwähnt.

  • In Forster, Analysis 2, 1999 vieweg liegen bis zum Kapitel über totale Differenzierbarkeit alle Vektoren und damit auch der Gradient. Der Beweis des Satzes von Schwarz auf Seite 40 nutzt

Die Hesse-Matrix ist nur für zweimal-stetig differenzierbarer Funktionen definiert, hat also keine Ausrichtung.

  • In Königsberger Analysis 2, 3. Auflage 2000 steht der Gradient (S.52), und er definiert

auf Seite 58. Die Hessematrix ist als Transponiertes der Jakobi-Matrix des Gradienten definiert, die Definition taucht aber einem Absatz auf, in dem der Satz von Schwarz angewendet wird.

Tja, schade, das scheint wirklich nicht so eindeutig. Dabei scheint mir ("aufgewachsen" mit meiner Definition ;-) ) meine Definition so sinnvoll. Bei der Jacobi-Matrix scheint man bei der Definition keine Wahl zu haben, wenn man Matrixen in der üblichen Weise multipliziert. Und das der Gradient die Jacobi-Matrix ist, scheint mir nicht sinnvoll, wozu hat man dann den Namen. Außerdem stelle ich mir den Gradient halt als Vektor und nicht als Abbildung vor. Und zur Hessematrix: In keinem der drei Bücher, die ich gerade hier habe, ist sie überhaupt für nicht zweimal stetig differenzierbare Funktionen definiert.
Es ist wohl also doch notwendig immer dazu zu schreiben, dass es mehrere Definitionen geben könnte. Ich fänd es aber gut, wenn die Definitionen zu einander passen würden. Daher stellt sich mir hauptsächlich die Frage, wie
laut wikipedia definiert ist. Was also laut Wikipedia bedeutet. Ich fänd es schon sinnvoll eine Definition für die Wikipedia durchgängig zu benutzen, auf die Probleme dabei aber immer hinzuweisen.
Ich habe eine Definition zweiter partieller Ableitungen aber gerade nicht gefunden. JanCK 13:59, 2. Sep 2006 (CEST)

Weitere Untersuchungen bei Semidefinitheit[Quelltext bearbeiten]

Im Artikel heißt es

"Falls H an der untersuchten Stelle nur semidefinit ist, so versagt dieses Kriterium und der Charakter des kritischen Punktes muss auf anderem Wege ermittelt werden"

Vielleicht ist hier ein Hinweis sinnvoll, welche weiteren Ansätze in einem solchen Fall anwendbar sind, bzw. in welchen Artikel man diese nachlesen kann. (Mein Wissen reicht zur Zeit nicht aus, um dies selber zu machen). --Agent00 16:39, 19. Sep. 2007 (CEST)Beantworten

Nabla Operator?[Quelltext bearbeiten]

Ich hab mir das noch nicht 100% durchgedacht, aber würde dies gerne hier aufnehmen, wenn dem so ist: ist die Hesse-Matrix nicht auch auf die funktion angewendet? siehe: Nabla-Operator -- 196.3.50.254 09:31, 29. Apr. 2011 (CEST)Beantworten

Im Prinzip ja. Wenn man als Spaltenvektor auffasst und die Multiplikation als Matrizenmultiplikation. Es besteht bei dieser Schreibweise jedoch Verwechslungsgefahr mit dem Laplace-Operator. Diesen kann man in der Form schreiben; hier bezeichnet der Malpunkt aber das Skalarprodukt. (Als Matrizenprodukt mit der Konvention, dass ein Spaltenvektor ist, wäre das . -- Digamma 09:56, 29. Apr. 2011 (CEST)Beantworten
Nagut, aber das ist halt so: Lambda-Operator und Hesse-Matrix unterscheiden sich, konstruiert aus dem Nabla-Operator, lediglich durch das in und .. das Problem ist insofern, dass hierbei unklar definiert ist, ob ein spalten- oder Zeilenvektor ist. Für mich ist dieser Zusammenhang aber noch wichtig. 196.3.50.254 12:36, 5. Mai 2011 (CEST)Beantworten
Schreib's doch einfach rein. Erkläre dabei, dass als Spaltenvektor aufgefasst wird und der Malpunkt Matrizenmultiplikation darstellt. -- Digamma 15:31, 5. Mai 2011 (CEST)Beantworten

Definition Hesse-Matrix[Quelltext bearbeiten]

Hallo zusammen. Wollt mal fragen, warum in der Definition gefordert ist, dass f zweimal stetig partiell differenzierbar ist. Würde es nicht ausreichen, hier nur zu fordern, dass f zweimal partiell differenzierbar ist? (nicht signierter Beitrag von 78.52.81.210 (Diskussion) 01:42, 6. Mär. 2015 (CET))Beantworten

Damit die Matrix definiert ist, genügt es natürlich, dass die einzelnen Einträge, also die zweiten partiellen Ableitungen definiert sind. Dafür genügt also, dass f zweimal partiell differenzierbar ist. Für den Satz von Schwarz, der besagt, dass man die Reihenfolge der Ableitungen vertauschen kann, und somit, dass die Hesse-Matrix symmetrisch ist, braucht man aber stärkere Voraussetzungen wie die Stetigkeit der zweiten Ableitungen, also zweimal stetig differenzierbar. Auch für die weiter unten genannten Anwendungen (Satz von Taylor, Bestimmung von Extrema, Konvexität) braucht man zweimal stetig differenzierbar.
(Statt "zweimal stetig differenzierbar" genügt in Wirklichkeit dieschwächere Eigenschaft "zweimal total differenzierbar", aber diese ist schwierig direkt nachweisbar.) --Digamma (Diskussion) 09:24, 7. Mär. 2015 (CET)Beantworten