H. Bauer, K. NeumannBerechnung optimaler Steuerungen
Maximumprinzip und dynamische Optimierung
Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
I. Grundlegende Begriffe und Sätze.- 1. Praktische Beispiele für Kontrollprobleme.- 2. Problemstellung und Voraussetzungen.- 3. Stetigkeit des Zielfunktionais F(y).- 4. Existenz und Eindeutigkeit optimaler Steuerungen.- II. Dynamische Optimierung.- 5. Ermittlung einer Näherungslösung für Kontrollprobleme mit vorgegebenem Endzeitpunkt mit Hilfe der BELLMANschen Punktionalgleichung.- 6. Sätze zur Theorie der dynamischen Optimierung.- 7. Numerische Realisierung der Methode der dynamischen Optimierung.- III. Ermittlung optimaler Steuerungen mit Hilfe des Maximumprinzips.- 8. Das Maximumprinzip und die Transversalitätsbedingung.- 9. Zur Theorie der linearen Kontrollprobleme.- 10. Optimale Steuerung linearer Eontrollprobleme mit vorgegebenem Endzeitpunkt.- 11. Lineare zeitoptimale Probleme.- 12. Lösung nichtlinearer Kontrollprobleme.- A1. Konvexe Mengen und Punktionen.- A2. LEBESGUE-integrable Punktionen.- A3. Funktionalanalysis.