'Konnektionismus' - ein für den Laien wahrscheinlich inhaltsleeres Wort. Noch. Denn unter Informatikern, Psychologen, Philosophen und Kog nitionsforschern wird dieser Begriff bereits mehr und mehr zum Schlagwort und steht dort für eine faszinierende und immer populärer werdende neue Forschungsrichtung der künstlichen Intelligenz (bzw. Artificial Intelligence oder Al). l Dabei wird versucht, zur Nachbildung von intelligenten und kognitiven Handlungen auf Maschinen nicht vom bisher üblichen Aufbau von Com putern auszugehen, sondern stattdessen von Modellen, die einige wichtige An leihen an der…mehr
'Konnektionismus' - ein für den Laien wahrscheinlich inhaltsleeres Wort. Noch. Denn unter Informatikern, Psychologen, Philosophen und Kog nitionsforschern wird dieser Begriff bereits mehr und mehr zum Schlagwort und steht dort für eine faszinierende und immer populärer werdende neue Forschungsrichtung der künstlichen Intelligenz (bzw. Artificial Intelligence oder Al). l Dabei wird versucht, zur Nachbildung von intelligenten und kognitiven Handlungen auf Maschinen nicht vom bisher üblichen Aufbau von Com putern auszugehen, sondern stattdessen von Modellen, die einige wichtige An leihen an der Funktionsweise des menschlichen Gehirns nehmen - passender weise neuronale Netzwerke genannt. Sie sind kein Versuch, wirklich das Gehirn nachzubauen - dafür hat man in dieses auch noch viel zu wenig Einblic- aber es ist eine entscheidende, um nicht zu sagen vielleicht revolutionäre Al ternative, einen Modellansatz für wesentliche Aspekte intelligenten Handeins zu entwerfen. In diesem Sinne könnte der Konnektionismus die Artificial In telligence nachhaltig beeinflussen. Dieses Buch versucht, in die Grundbegriffe des Konnektionismus einzuführen und mit dessen Hilfe eine neue Form der Artificial Intelligence, die nach Ideen von Hofstadter und Smolensky so benannte sub-symbolische AI, zu for mulieren. Wesentliches Merkmal dieser Form von Artificial Intelligence ist, daß sie zunächst von der ModelIierung von unbewußten, assoziativen oder in tuitiven Vorgängen ausgeht. Symbolisches Denken, Schlußfolgern und Anwen den von Regeln spielen nach wie vor eine wesentliche Rolle, müssen aber in den Mechanismus der assoziativen Vorgänge eingebettet sein.Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
1 Von der klassischen AI zum Konnektionismus.- 1.1 Allgemeines.- 1.2 Die Annahmen der AI.- 1.2.1 Hintergründe der Physical Symbol System Hypothesis.- 1.2.1.1 Erklärbarkeit der Modelle.- 1.2.1.2 Die Church-Turing These.- 1.2.1.3 Prozeßstrukturen auf Makroebene.- 1.3 Ebenen kognitiver Prozesse.- 2 Konnektionismus eine Einführung.- 2.1 Allgemeines.- 2.1.1 Das XOR-Netz.- 2.2 Repräsentation die klassische Unterscheidung.- 2.3 Programmieren von konnektionistischen Netzwerken.- 2.3.1 Prinzipien des konnektionistischen Lernens.- 2.3.1.1 Das Hebb sche Prinzip.- 2.3.1.2 Erweiterung der Hebb schen Regel.- 2.3.1.3 Von der Delta Rule zur Backpropagation.- 2.4 Netzwerkgrundtypen.- 2.4.1 Feedforward-Verbindungen zwischen Layern.- 2.4.1.1 Assoziationsnetzwerke (Pattern Associators).- 2.4.1.2 Einige Beispiele.- Das Erlernen der XOR-Funktion.- NetTalk und NETZSPRECH.- Das Erlernen von Past Tense Formen im Englischen.- 2.4.1.3 Bidirektionale Assoziation (BAM).- 2.4.2 Vollverbindungen innerhalb eines Layers.- 2.4.2.1 Interactive Activation.- 2.4.2.2 Hopfield Netze.- 2.4.3 Andere Grundtypen.- 2.4.3.1 Partielle Verbindungen.- 2.4.3.2 Eins-zu-Eins Verbindungen.- 2.4.4 Zusammengesetzte Netzwerkmodelle.- 2.4.4.1 Competitive Learning.- 2.4.4.2 Counterpropagation.- 2.4.4.3 Topological Feature Maps.- 2.4.4.4 Adaptive Resonance Theory (ART).- 2.4.4.5 Rekurrente Feedforward-Netzwerke.- 2.4.5 Stochastische Modelle.- 2.4.6 Netzwerke höherer Ordnung.- 2.4.7 Klassifikation von Netzwerkgrundtypen.- 2.5 Aspekte von konnektionistischen Modellen.- 2.5.1 Parallelität und Verteiltheit.- 2.5.2 Adressierbarkeit anhand des Inhalts.- 2.5.3 Constraint Satisfaction.- 3 Neuronale Netzwerke Eine nähere Betrachtung.- 3.1 Ein mathematischer Abriß der Aktivierungsausbreitung (Update).- 3.1.1 Update im assoziativen Netz.- 3.1.1.1 Lineare Abhängigkeiten.- 3.1.1.2 Vektorähnlichkeit und Netzwerkantwort.- 3.1.1.3 Hidden Units und lineare Trennbarkeit.- 3.1.1.4 Partielle Verbindungen.- 3.1.2 Die Kombination von Assoziation und WTA.- 3.1.3 Update mit Vollverbindungen.- 3.1.3.1 Die Möglichkeiten der Kompetition.- 3.1.3.2 Stabilität und Liapunov-Funktionen.- 3.1.4 Stochastisches Update.- 3.2 Ein mathematischer Abriß der Lernregeln.- 3.2.1 Die Grenzen der Hebb schen Regel.- 3.2.2 Das Wesen der Delta-Regel.- 3.2.3 Backpropagation als Optimierungsvorgang.- 3.2.4 Lernen mit Vollverbindungen.- 3.2.5 Stochastisches Lernen.- 3.2.6 Zusammenfassung.- 3.3 Verteilte Aktivierungsmuster.- 3.3.1 Die Bedeutung verteilter Aktivierungsmuster.- 3.3.2 Features und Microfeatures.- 3.3.3 Coarse Coding.- 3.3.4 Conjunctive Coding.- 3.3.5 Zufälliger m aus n Code.- 3.3.6 Selbstorganisation.- 4 Das Sub-Symbolische Paradigma.- 4.1 Von Hofstadter zu Smolensky.- 4.2 Die Gebirgsanalogie.- 4.3 Die symbolische Annäherung.- 4.4 Als Beispiel: Buchstabenerkennung.- 4.4.1 Features ersetzen den vollständigen Zustand.- 4.4.2 Zwischenzustände und Kontext.- 4.4.3 Der Versuch der symbolischen Annäherung und die sub-symbolische Antwort.- 4.5 Die Gegenprobe: identifizierbare Features.- 4.6 Die konnektionistische Version des Sub-symbolischen Paradigmas.- 5 Repräsentation und Selbstorganisation.- 5.1 Allgemeines.- 5.2 Symbolische Repräsentation.- 5.3 Sub-symbolische Repräsentation.- 5.4 Die Notwendigkeit eines Interpreters.- 5.5 Was aber passiert in Hidden Units?.- 5.6 Warum wurde Repräsentation als so wichtig eingeschätzt?.- 5.7 Kognitive Modelle ohne Repräsentation? Das Tower-Bridge Bild.- 5.7.1 Repräsentation auf Metaebene.- 5.7.2 Repräsentationsfreie konnektionistische Modelle.- 5.8 Sub-Symbolische Repräsentation Das Binding Problem .- 5.8.1 Die Tensor-Produkt Repräsentation.- 5.8.2 Binding Problem: Fragen und Beobachtungen.- 5.8.3 Kompositionalität.- 6 Symbole in sub-symbolischen Modellen.- 6.1 Allgemeines.- 6.2 Symbole und Informationstheorie.- 6.3 Die Rolle symbolischer Muster.- 6.4 Darstellung von Symbolen in konnektionistischen Netzwerken.- 6.4.1 Lokale Realisierung.- 6.4.2 Lokale Realisieru
1 Von der klassischen AI zum Konnektionismus.- 1.1 Allgemeines.- 1.2 Die Annahmen der AI.- 1.2.1 Hintergründe der Physical Symbol System Hypothesis.- 1.2.1.1 Erklärbarkeit der Modelle.- 1.2.1.2 Die Church-Turing These.- 1.2.1.3 Prozeßstrukturen auf Makroebene.- 1.3 Ebenen kognitiver Prozesse.- 2 Konnektionismus eine Einführung.- 2.1 Allgemeines.- 2.1.1 Das XOR-Netz.- 2.2 Repräsentation die klassische Unterscheidung.- 2.3 Programmieren von konnektionistischen Netzwerken.- 2.3.1 Prinzipien des konnektionistischen Lernens.- 2.3.1.1 Das Hebb sche Prinzip.- 2.3.1.2 Erweiterung der Hebb schen Regel.- 2.3.1.3 Von der Delta Rule zur Backpropagation.- 2.4 Netzwerkgrundtypen.- 2.4.1 Feedforward-Verbindungen zwischen Layern.- 2.4.1.1 Assoziationsnetzwerke (Pattern Associators).- 2.4.1.2 Einige Beispiele.- Das Erlernen der XOR-Funktion.- NetTalk und NETZSPRECH.- Das Erlernen von Past Tense Formen im Englischen.- 2.4.1.3 Bidirektionale Assoziation (BAM).- 2.4.2 Vollverbindungen innerhalb eines Layers.- 2.4.2.1 Interactive Activation.- 2.4.2.2 Hopfield Netze.- 2.4.3 Andere Grundtypen.- 2.4.3.1 Partielle Verbindungen.- 2.4.3.2 Eins-zu-Eins Verbindungen.- 2.4.4 Zusammengesetzte Netzwerkmodelle.- 2.4.4.1 Competitive Learning.- 2.4.4.2 Counterpropagation.- 2.4.4.3 Topological Feature Maps.- 2.4.4.4 Adaptive Resonance Theory (ART).- 2.4.4.5 Rekurrente Feedforward-Netzwerke.- 2.4.5 Stochastische Modelle.- 2.4.6 Netzwerke höherer Ordnung.- 2.4.7 Klassifikation von Netzwerkgrundtypen.- 2.5 Aspekte von konnektionistischen Modellen.- 2.5.1 Parallelität und Verteiltheit.- 2.5.2 Adressierbarkeit anhand des Inhalts.- 2.5.3 Constraint Satisfaction.- 3 Neuronale Netzwerke Eine nähere Betrachtung.- 3.1 Ein mathematischer Abriß der Aktivierungsausbreitung (Update).- 3.1.1 Update im assoziativen Netz.- 3.1.1.1 Lineare Abhängigkeiten.- 3.1.1.2 Vektorähnlichkeit und Netzwerkantwort.- 3.1.1.3 Hidden Units und lineare Trennbarkeit.- 3.1.1.4 Partielle Verbindungen.- 3.1.2 Die Kombination von Assoziation und WTA.- 3.1.3 Update mit Vollverbindungen.- 3.1.3.1 Die Möglichkeiten der Kompetition.- 3.1.3.2 Stabilität und Liapunov-Funktionen.- 3.1.4 Stochastisches Update.- 3.2 Ein mathematischer Abriß der Lernregeln.- 3.2.1 Die Grenzen der Hebb schen Regel.- 3.2.2 Das Wesen der Delta-Regel.- 3.2.3 Backpropagation als Optimierungsvorgang.- 3.2.4 Lernen mit Vollverbindungen.- 3.2.5 Stochastisches Lernen.- 3.2.6 Zusammenfassung.- 3.3 Verteilte Aktivierungsmuster.- 3.3.1 Die Bedeutung verteilter Aktivierungsmuster.- 3.3.2 Features und Microfeatures.- 3.3.3 Coarse Coding.- 3.3.4 Conjunctive Coding.- 3.3.5 Zufälliger m aus n Code.- 3.3.6 Selbstorganisation.- 4 Das Sub-Symbolische Paradigma.- 4.1 Von Hofstadter zu Smolensky.- 4.2 Die Gebirgsanalogie.- 4.3 Die symbolische Annäherung.- 4.4 Als Beispiel: Buchstabenerkennung.- 4.4.1 Features ersetzen den vollständigen Zustand.- 4.4.2 Zwischenzustände und Kontext.- 4.4.3 Der Versuch der symbolischen Annäherung und die sub-symbolische Antwort.- 4.5 Die Gegenprobe: identifizierbare Features.- 4.6 Die konnektionistische Version des Sub-symbolischen Paradigmas.- 5 Repräsentation und Selbstorganisation.- 5.1 Allgemeines.- 5.2 Symbolische Repräsentation.- 5.3 Sub-symbolische Repräsentation.- 5.4 Die Notwendigkeit eines Interpreters.- 5.5 Was aber passiert in Hidden Units?.- 5.6 Warum wurde Repräsentation als so wichtig eingeschätzt?.- 5.7 Kognitive Modelle ohne Repräsentation? Das Tower-Bridge Bild.- 5.7.1 Repräsentation auf Metaebene.- 5.7.2 Repräsentationsfreie konnektionistische Modelle.- 5.8 Sub-Symbolische Repräsentation Das Binding Problem .- 5.8.1 Die Tensor-Produkt Repräsentation.- 5.8.2 Binding Problem: Fragen und Beobachtungen.- 5.8.3 Kompositionalität.- 6 Symbole in sub-symbolischen Modellen.- 6.1 Allgemeines.- 6.2 Symbole und Informationstheorie.- 6.3 Die Rolle symbolischer Muster.- 6.4 Darstellung von Symbolen in konnektionistischen Netzwerken.- 6.4.1 Lokale Realisierung.- 6.4.2 Lokale Realisieru
Es gelten unsere Allgemeinen Geschäftsbedingungen: www.buecher.de/agb
Impressum
www.buecher.de ist ein Internetauftritt der buecher.de internetstores GmbH
Geschäftsführung: Monica Sawhney | Roland Kölbl | Günter Hilger
Sitz der Gesellschaft: Batheyer Straße 115 - 117, 58099 Hagen
Postanschrift: Bürgermeister-Wegele-Str. 12, 86167 Augsburg
Amtsgericht Hagen HRB 13257
Steuernummer: 321/5800/1497