Hamilton-Funktion (Kontrolltheorie)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Hamilton-Funktion in der Theorie der optimalen Steuerungen wurde von L. S. Pontryagin als Teil seines Maximumprinzips entwickelt. Sie ist ähnlich zur Hamilton-Funktion der Mechanik, aber unterscheidet sich doch von ihr. Pontrjagin zeigte, dass eine notwendige Bedingung für das Lösen eines Optimalsteuerungsproblems ist, dass die gewählte Steuerung die Hamilton-Funktion minimieren muss.

Notation und Problemstellung[Bearbeiten]

Eine Steuerung u(t) soll so gewählt werden, dass folgendes Zielfunktional minimiert wird


J(u)=\Psi(x(T))+\int^T_0 L(x,u,t) dt

wobei x(t) den Zustand des Systems beschreibt, welcher sich gemäß der Differentialgleichungen


\dot{x}=f(x,u,t) \qquad x(0)=x_0 \quad t \in [0,T]

entwickelt, und die Steuerung folgenden Einschränkungen genügen muss


a \le u(t) \le b \quad t \in [0,T].

Des Weiteren is \Psi(x(T)) eine beliebige Funktion des Zielzustandes x(T) nach der Zeit T, sowie L(x,u,t) die Lagrangefunktion.

Definition der Hamilton-Funktion[Bearbeiten]


H(x,\lambda,u,t)=\lambda^T(t)f(x,u,t)+L(x,u,t) \,

wobei \lambda(t) die Lagrange-Multiplikatoren sind, deren Komponenten die adjungierten Zustände beschreiben.

Literatur[Bearbeiten]

  •  Velimir Jurdjevic: Geometric Control Theory (= Cambridge Studies in Advanced Mathematics. Bd. 52). Cambridge University Press, Cambridge u. a. 2008, ISBN 978-0-52105824-7.