36,99 €
inkl. MwSt.
Sofort per Download lieferbar
  • Format: PDF

Diplomarbeit aus dem Jahr 2004 im Fachbereich Informatik - Allgemeines, Note: 1, Universität Paderborn, Sprache: Deutsch, Abstract: [...] Je öfter ein Agent Datensätze dieser Art gesammelt hat, desto häufiger sollte er dann in zukünftigen Situationen entscheiden können, welche zuvor gelernte Verhaltensfolge er jeweils anwenden kann, um seine Performance zu verbessern. Ausgehend von der Erkenntnis, dass erfolgreiche Handlungsfolgen leichter und häufiger kopiert werden als erfolglose, sollen die Agenten auf diese Weise versuchen, ihr Verhalten mit der Zeit zu verbessern, ohne auf dedizierte…mehr

Produktbeschreibung
Diplomarbeit aus dem Jahr 2004 im Fachbereich Informatik - Allgemeines, Note: 1, Universität Paderborn, Sprache: Deutsch, Abstract: [...] Je öfter ein Agent Datensätze dieser Art gesammelt hat, desto häufiger sollte er dann in zukünftigen Situationen entscheiden können, welche zuvor gelernte Verhaltensfolge er jeweils anwenden kann, um seine Performance zu verbessern. Ausgehend von der Erkenntnis, dass erfolgreiche Handlungsfolgen leichter und häufiger kopiert werden als erfolglose, sollen die Agenten auf diese Weise versuchen, ihr Verhalten mit der Zeit zu verbessern, ohne auf dedizierte Lernalgorithmen zurückzugreifen. Der oben erwähnte innere Zustand eines Agenten besteht aus Bedürfnissen und Emotionen, die der Agent stets in einem angenehmen Bereich zu halten versucht. Die Performance eines Agenten wird daran gemessen, wie erfolgreich er dabei ist. Im Laufe der Zeit sollte der Agent durch mehr und mehr gelernte Episoden es verstehen, seine Bedürfnisse und Emotionen immer besser zu kontrollieren. Bei erfolgter Imitation einer Handlungsfolge oder Episode, kann der imitierende Agent auch als ein “Episodenvervielfältiger” aufgefasst werden, die imitierte Episode demzufolge gemäß Blackmores Definition als “Mem”. Die Software-Agenten werden damit als sog. “Mem-Wirte” benutzt. Es ist zu untersuchen, in welchem Ausmaß Episoden vervielfältigt werden und ob sich in gewisser Weise Episoden-“Schulen” herausbilden, ob sich also die Agentengesellschaft in Gruppierungen oder Cluster aufteilen lässt. Diese Cluster enthalten dann nur solche Agenten, die zu einem bestimmten Grade die gleichen Episoden in gleichen Situationen anwenden, in ihren Verhaltensweisen also ähnlich sind. Die Ergebnisse des hier entwickelten Lernverfahrens und der darauf aufbauenden Architektur sollen mittels einer Simulationsumgebung ermittelt werden. Um dieses Ziel — das Lernen von Handlungsfolgen durch Imitation — zu erreichen, müssen in dieser Arbeit drei Themenblöcke zusammengebracht werden. Zuerst ist da die Fähigkeit der Imitation von Episoden und der dadurch erreichte Lerneffekt. Diese erfolgreich gelernten und angewandten Episoden wirken sich dann mittelbar auf die Bedürfnisse und Emotionen des Agenten aus. Daraufhin kontrolliert der Agent auf diese Weise beeinflusst seine verhaltensbasierte Architektur, die indirekt über die Umweltrückgekoppelt seinen emotionalen Zustand verändert. Die detaillierten Zielsetzungen in diesen drei Themen Lernen durch Imitation, Bedürfnisse und Emotionen und verhaltensbasierte Architekturen werden im Folgenden eingehender vorgestellt.