-33%11
33,26 €
49,99 €**
33,26 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar
17 °P sammeln
-33%11
33,26 €
49,99 €**
33,26 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar
Alle Infos zum eBook verschenken
17 °P sammeln
Als Download kaufen
49,99 €****
-33%11
33,26 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar
17 °P sammeln
Jetzt verschenken
Alle Infos zum eBook verschenken
49,99 €****
-33%11
33,26 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar
Alle Infos zum eBook verschenken
17 °P sammeln
- Format: PDF
- Merkliste
- Auf die Merkliste
- Bewerten Bewerten
- Teilen
- Produkt teilen
- Produkterinnerung
- Produkterinnerung
Bitte loggen Sie sich zunächst in Ihr Kundenkonto ein oder registrieren Sie sich bei
bücher.de, um das eBook-Abo tolino select nutzen zu können.
Hier können Sie sich einloggen
Hier können Sie sich einloggen
Sie sind bereits eingeloggt. Klicken Sie auf 2. tolino select Abo, um fortzufahren.
Bitte loggen Sie sich zunächst in Ihr Kundenkonto ein oder registrieren Sie sich bei bücher.de, um das eBook-Abo tolino select nutzen zu können.
- Geräte: PC
- ohne Kopierschutz
- eBook Hilfe
- Größe: 47.66MB
Produktdetails
- Verlag: Vieweg+Teubner Verlag
- Seitenzahl: 448
- Erscheinungstermin: 17. April 2013
- Deutsch
- ISBN-13: 9783322946652
- Artikelnr.: 54171736
Dieser Download kann aus rechtlichen Gründen nur mit Rechnungsadresse in A, B, BG, CY, CZ, D, DK, EW, E, FIN, F, GR, HR, H, IRL, I, LT, L, LR, M, NL, PL, P, R, S, SLO, SK ausgeliefert werden.
- Herstellerkennzeichnung Die Herstellerinformationen sind derzeit nicht verfügbar.
1 Von der klassischen AI zum Konnektionismus.- 1.1 Allgemeines.- 1.2 Die Annahmen der AI.- 1.2.1 Hintergründe der Physical Symbol System Hypothesis.- 1.2.1.1 Erklärbarkeit der Modelle.- 1.2.1.2 Die Church-Turing These.- 1.2.1.3 Prozeßstrukturen auf Makroebene.- 1.3 Ebenen kognitiver Prozesse.- 2 Konnektionismus eine Einführung.- 2.1 Allgemeines.- 2.1.1 Das XOR-Netz.- 2.2 Repräsentation die klassische Unterscheidung.- 2.3 Programmieren von konnektionistischen Netzwerken.- 2.3.1 Prinzipien des konnektionistischen Lernens.- 2.3.1.1 Das Hebb sche Prinzip.- 2.3.1.2 Erweiterung der Hebb schen Regel.- 2.3.1.3 Von der Delta Rule zur Backpropagation.- 2.4 Netzwerkgrundtypen.- 2.4.1 Feedforward-Verbindungen zwischen Layern.- 2.4.1.1 Assoziationsnetzwerke (Pattern Associators).- 2.4.1.2 Einige Beispiele.- Das Erlernen der XOR-Funktion.- NetTalk und NETZSPRECH.- Das Erlernen von Past Tense Formen im Englischen.- 2.4.1.3 Bidirektionale Assoziation (BAM).- 2.4.2 Vollverbindungen innerhalb eines Layers.- 2.4.2.1 Interactive Activation.- 2.4.2.2 Hopfield Netze.- 2.4.3 Andere Grundtypen.- 2.4.3.1 Partielle Verbindungen.- 2.4.3.2 Eins-zu-Eins Verbindungen.- 2.4.4 Zusammengesetzte Netzwerkmodelle.- 2.4.4.1 Competitive Learning.- 2.4.4.2 Counterpropagation.- 2.4.4.3 Topological Feature Maps.- 2.4.4.4 Adaptive Resonance Theory (ART).- 2.4.4.5 Rekurrente Feedforward-Netzwerke.- 2.4.5 Stochastische Modelle.- 2.4.6 Netzwerke höherer Ordnung.- 2.4.7 Klassifikation von Netzwerkgrundtypen.- 2.5 Aspekte von konnektionistischen Modellen.- 2.5.1 Parallelität und Verteiltheit.- 2.5.2 Adressierbarkeit anhand des Inhalts.- 2.5.3 Constraint Satisfaction.- 3 Neuronale Netzwerke Eine nähere Betrachtung.- 3.1 Ein mathematischer Abriß der Aktivierungsausbreitung (Update).- 3.1.1 Update im assoziativen Netz.- 3.1.1.1 Lineare Abhängigkeiten.- 3.1.1.2 Vektorähnlichkeit und Netzwerkantwort.- 3.1.1.3 Hidden Units und lineare Trennbarkeit.- 3.1.1.4 Partielle Verbindungen.- 3.1.2 Die Kombination von Assoziation und WTA.- 3.1.3 Update mit Vollverbindungen.- 3.1.3.1 Die Möglichkeiten der Kompetition.- 3.1.3.2 Stabilität und Liapunov-Funktionen.- 3.1.4 Stochastisches Update.- 3.2 Ein mathematischer Abriß der Lernregeln.- 3.2.1 Die Grenzen der Hebb schen Regel.- 3.2.2 Das Wesen der Delta-Regel.- 3.2.3 Backpropagation als Optimierungsvorgang.- 3.2.4 Lernen mit Vollverbindungen.- 3.2.5 Stochastisches Lernen.- 3.2.6 Zusammenfassung.- 3.3 Verteilte Aktivierungsmuster.- 3.3.1 Die Bedeutung verteilter Aktivierungsmuster.- 3.3.2 Features und Microfeatures.- 3.3.3 Coarse Coding.- 3.3.4 Conjunctive Coding.- 3.3.5 Zufälliger m aus n Code.- 3.3.6 Selbstorganisation.- 4 Das Sub-Symbolische Paradigma.- 4.1 Von Hofstadter zu Smolensky.- 4.2 Die Gebirgsanalogie.- 4.3 Die symbolische Annäherung.- 4.4 Als Beispiel: Buchstabenerkennung.- 4.4.1 Features ersetzen den vollständigen Zustand.- 4.4.2 Zwischenzustände und Kontext.- 4.4.3 Der Versuch der symbolischen Annäherung und die sub-symbolische Antwort.- 4.5 Die Gegenprobe: identifizierbare Features.- 4.6 Die konnektionistische Version des Sub-symbolischen Paradigmas.- 5 Repräsentation und Selbstorganisation.- 5.1 Allgemeines.- 5.2 Symbolische Repräsentation.- 5.3 Sub-symbolische Repräsentation.- 5.4 Die Notwendigkeit eines Interpreters.- 5.5 Was aber passiert in Hidden Units?.- 5.6 Warum wurde Repräsentation als so wichtig eingeschätzt?.- 5.7 Kognitive Modelle ohne Repräsentation? Das Tower-Bridge Bild.- 5.7.1 Repräsentation auf Metaebene.- 5.7.2 Repräsentationsfreie konnektionistische Modelle.- 5.8 Sub-Symbolische Repräsentation Das Binding Problem .- 5.8.1 Die Tensor-Produkt Repräsentation.- 5.8.2 Binding Problem: Fragen und Beobachtungen.- 5.8.3 Kompositionalität.- 6 Symbole in sub-symbolischen Modellen.- 6.1 Allgemeines.- 6.2 Symbole und Informationstheorie.- 6.3 Die Rolle symbolischer Muster.- 6.4 Darstellung von Symbolen in konnektionistischen Netzwerken.- 6.4.1 Lokale Realisierung.- 6.4.2 Lokale Realisieru
1 Von der klassischen AI zum Konnektionismus.- 1.1 Allgemeines.- 1.2 Die Annahmen der AI.- 1.2.1 Hintergründe der Physical Symbol System Hypothesis.- 1.2.1.1 Erklärbarkeit der Modelle.- 1.2.1.2 Die Church-Turing These.- 1.2.1.3 Prozeßstrukturen auf Makroebene.- 1.3 Ebenen kognitiver Prozesse.- 2 Konnektionismus eine Einführung.- 2.1 Allgemeines.- 2.1.1 Das XOR-Netz.- 2.2 Repräsentation die klassische Unterscheidung.- 2.3 Programmieren von konnektionistischen Netzwerken.- 2.3.1 Prinzipien des konnektionistischen Lernens.- 2.3.1.1 Das Hebb sche Prinzip.- 2.3.1.2 Erweiterung der Hebb schen Regel.- 2.3.1.3 Von der Delta Rule zur Backpropagation.- 2.4 Netzwerkgrundtypen.- 2.4.1 Feedforward-Verbindungen zwischen Layern.- 2.4.1.1 Assoziationsnetzwerke (Pattern Associators).- 2.4.1.2 Einige Beispiele.- Das Erlernen der XOR-Funktion.- NetTalk und NETZSPRECH.- Das Erlernen von Past Tense Formen im Englischen.- 2.4.1.3 Bidirektionale Assoziation (BAM).- 2.4.2 Vollverbindungen innerhalb eines Layers.- 2.4.2.1 Interactive Activation.- 2.4.2.2 Hopfield Netze.- 2.4.3 Andere Grundtypen.- 2.4.3.1 Partielle Verbindungen.- 2.4.3.2 Eins-zu-Eins Verbindungen.- 2.4.4 Zusammengesetzte Netzwerkmodelle.- 2.4.4.1 Competitive Learning.- 2.4.4.2 Counterpropagation.- 2.4.4.3 Topological Feature Maps.- 2.4.4.4 Adaptive Resonance Theory (ART).- 2.4.4.5 Rekurrente Feedforward-Netzwerke.- 2.4.5 Stochastische Modelle.- 2.4.6 Netzwerke höherer Ordnung.- 2.4.7 Klassifikation von Netzwerkgrundtypen.- 2.5 Aspekte von konnektionistischen Modellen.- 2.5.1 Parallelität und Verteiltheit.- 2.5.2 Adressierbarkeit anhand des Inhalts.- 2.5.3 Constraint Satisfaction.- 3 Neuronale Netzwerke Eine nähere Betrachtung.- 3.1 Ein mathematischer Abriß der Aktivierungsausbreitung (Update).- 3.1.1 Update im assoziativen Netz.- 3.1.1.1 Lineare Abhängigkeiten.- 3.1.1.2 Vektorähnlichkeit und Netzwerkantwort.- 3.1.1.3 Hidden Units und lineare Trennbarkeit.- 3.1.1.4 Partielle Verbindungen.- 3.1.2 Die Kombination von Assoziation und WTA.- 3.1.3 Update mit Vollverbindungen.- 3.1.3.1 Die Möglichkeiten der Kompetition.- 3.1.3.2 Stabilität und Liapunov-Funktionen.- 3.1.4 Stochastisches Update.- 3.2 Ein mathematischer Abriß der Lernregeln.- 3.2.1 Die Grenzen der Hebb schen Regel.- 3.2.2 Das Wesen der Delta-Regel.- 3.2.3 Backpropagation als Optimierungsvorgang.- 3.2.4 Lernen mit Vollverbindungen.- 3.2.5 Stochastisches Lernen.- 3.2.6 Zusammenfassung.- 3.3 Verteilte Aktivierungsmuster.- 3.3.1 Die Bedeutung verteilter Aktivierungsmuster.- 3.3.2 Features und Microfeatures.- 3.3.3 Coarse Coding.- 3.3.4 Conjunctive Coding.- 3.3.5 Zufälliger m aus n Code.- 3.3.6 Selbstorganisation.- 4 Das Sub-Symbolische Paradigma.- 4.1 Von Hofstadter zu Smolensky.- 4.2 Die Gebirgsanalogie.- 4.3 Die symbolische Annäherung.- 4.4 Als Beispiel: Buchstabenerkennung.- 4.4.1 Features ersetzen den vollständigen Zustand.- 4.4.2 Zwischenzustände und Kontext.- 4.4.3 Der Versuch der symbolischen Annäherung und die sub-symbolische Antwort.- 4.5 Die Gegenprobe: identifizierbare Features.- 4.6 Die konnektionistische Version des Sub-symbolischen Paradigmas.- 5 Repräsentation und Selbstorganisation.- 5.1 Allgemeines.- 5.2 Symbolische Repräsentation.- 5.3 Sub-symbolische Repräsentation.- 5.4 Die Notwendigkeit eines Interpreters.- 5.5 Was aber passiert in Hidden Units?.- 5.6 Warum wurde Repräsentation als so wichtig eingeschätzt?.- 5.7 Kognitive Modelle ohne Repräsentation? Das Tower-Bridge Bild.- 5.7.1 Repräsentation auf Metaebene.- 5.7.2 Repräsentationsfreie konnektionistische Modelle.- 5.8 Sub-Symbolische Repräsentation Das Binding Problem .- 5.8.1 Die Tensor-Produkt Repräsentation.- 5.8.2 Binding Problem: Fragen und Beobachtungen.- 5.8.3 Kompositionalität.- 6 Symbole in sub-symbolischen Modellen.- 6.1 Allgemeines.- 6.2 Symbole und Informationstheorie.- 6.3 Die Rolle symbolischer Muster.- 6.4 Darstellung von Symbolen in konnektionistischen Netzwerken.- 6.4.1 Lokale Realisierung.- 6.4.2 Lokale Realisieru