39,99 €
inkl. MwSt.
Sofort per Download lieferbar
  • Format: PDF

Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information führen sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp…mehr

Produktbeschreibung
Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information führen sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp und Hasler [14]. Untersucht wurden neuronale Assoziativspeicher u.a. von Grossberg [10], Anderson [1], Kohonen [15, 16], Cohen und Grossberg [6], Kosko [17, 18], Hassoun [11], Wang, Cruz und Mulligan [35, 36], Srinivasan und Chia [33], Shanmukh und Venkatesh [31], Zhang, Xu und Kwong [37], Leung [26, 27], Wang, Zhuang und Xing [34, 38], sowie Sommer und Palm [32]. Die gerade genannten Arbeiten befassen sich im wesentlichen mit dem allgemeinsten Fall von neuronalen Assoziativspeichern, den heteroassoziativen Netzen. In der vorliegenden Arbeit wollen wir uns speziell den autoassoziativen Speichern im Sinne von Hopfield [12, 13] widmen. Die Standardaufgabe eines solchen autoassoziativen Hopfield-Netzes ist die Speicherung einer Menge von t bipolar codierten Trainingsmustern Konkret soll das zu verwendende Hopfield-Netz so konstruiert werden, dass ein als Eingabe angelegtes Trainingsmuster ~x(s) aus der obigen Trainingsmenge zu einer Ausgabe desselben Musters ~x(s) führt. Trifft dies für alle Muster der Trainingsmenge zu, so sagt man, das Netz arbeitet perfekt auf den Trainingsdaten. Idealerweise soll auch dann das Muster ~x(s) ausgegeben werden, wenn die Eingabe geringfügig verrauscht, d.h. fehlerbehaftet, war.