Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
1 Einleitung.- 2 Die grundlegenden Begriffe der Dynamischen Programmierung.- 2.1 Optimalitätsprinzip: Jede Unterpolitik einer optimalen Politik ist optimal.- 2.2 Rekursive Berechnung der optimalen Entscheidung.- 2.3 Bedingungen für die Anwendbarkeit der Dynamischen Programmierung und Begriff der Zustands- und Entscheidungsvariablen.- 2.4 Begriffe: Planungshorizont, Diskontierung, Politik.- 3 Dynamische Programmierung und Markov-Prozesse.- 3.1 Beispiel eines Markov-Prozesses.- 3.2 Bewertung von Markov-Prozessen.- 3.3 Sequentielle Entscheidungen in Markov-Prozessen.- 3.4 Die Politik-Iteration für die Lösung von sequentiellen Entscheidungsprozessen.- 3.5 Beispiel: Anwendung der Politik-Iteration im Taxibetrieb.- 3.6 Beispiel: Anwendung der Politik-Iteration beim Ersetzen von Autos.- 3.7 Beispiel: Produktionsplanung und Lagerhaltung (Beispiel mit Hilfe der Theorie der Markov-Prozesse betrachtet).- 4 Dynamische Programmierung und Computer-Kapazität.- 4.1 Eignung des Computers für das Dynamische Programmieren.- 4.2 Speicherbedarf.- 4.3 Rechenzeit.- 4.4 Lineares, Nichtlineares und Dynamisches Programmieren.