Roland Schwaiger, Joachim Steinwendner
Neuronale Netze programmieren mit Python
Schneller Einstieg mit allen Python- und Mathegrundlagen. Lernalgorithmen, Aktivierungsfunktionen, Backpropagation. Inkl. Online-Lernumgebung und Einstieg in TensorFlow. Alle Beispielprojekte zum Downloa
Roland Schwaiger, Joachim Steinwendner
Neuronale Netze programmieren mit Python
Schneller Einstieg mit allen Python- und Mathegrundlagen. Lernalgorithmen, Aktivierungsfunktionen, Backpropagation. Inkl. Online-Lernumgebung und Einstieg in TensorFlow. Alle Beispielprojekte zum Downloa
- Broschiertes Buch
- Merkliste
- Auf die Merkliste
- Bewerten Bewerten
- Teilen
- Produkt teilen
- Produkterinnerung
- Produkterinnerung
Neuronale Netze stehen im Mittelpunkt, wenn es um Künstliche Intelligenz und Machine Learning geht. Sie revolutionieren derzeit die verschiedensten Anwendungsgebiete vom Strategiespiel bis zur Bild- und Spracherkennung. In ihnen stecken geniale Ideen, die sich zum Glück einfach erklären lassen. Um sie zu verstehen und gewinnbringend einzusetzen, programmieren Sie verschiedene Netztypen selbst nach! Und zwar in Python, der Hauptsprache der KI-Welt. Sie werden sich dabei mit Mathematik und Programmierung befassen, brauchen aber keine konkreten Vorkenntnisse.
Aus dem Inhalt:
Die Grundidee…mehr
Neuronale Netze stehen im Mittelpunkt, wenn es um Künstliche Intelligenz und Machine Learning geht. Sie revolutionieren derzeit die verschiedensten Anwendungsgebiete vom Strategiespiel bis zur Bild- und Spracherkennung. In ihnen stecken geniale Ideen, die sich zum Glück einfach erklären lassen. Um sie zu verstehen und gewinnbringend einzusetzen, programmieren Sie verschiedene Netztypen selbst nach! Und zwar in Python, der Hauptsprache der KI-Welt. Sie werden sich dabei mit Mathematik und Programmierung befassen, brauchen aber keine konkreten Vorkenntnisse.
Aus dem Inhalt:
Die Grundidee hinter Neuronalen Netzen
Ein einfaches Neuronales Netz aufbauen
Neuronale Netze trainieren
Überwachtes und unüberwachtes Lernen
Einführung in TensorFlow
Kompaktkurs Python
Wichtige mathematische Grundlagen
Reinforcement Learning
Verschiedene Netzarten und ihre Anwendungsbereiche
Back Propagation
Deep Learning
Werkzeuge für Data Scientists
Aus dem Inhalt:
Die Grundidee hinter Neuronalen Netzen
Ein einfaches Neuronales Netz aufbauen
Neuronale Netze trainieren
Überwachtes und unüberwachtes Lernen
Einführung in TensorFlow
Kompaktkurs Python
Wichtige mathematische Grundlagen
Reinforcement Learning
Verschiedene Netzarten und ihre Anwendungsbereiche
Back Propagation
Deep Learning
Werkzeuge für Data Scientists
Produktdetails
- Produktdetails
- Rheinwerk Computing
- Verlag: Rheinwerk Verlag
- Artikelnr. des Verlages: 459/06142
- Seitenzahl: 447
- Erscheinungstermin: 2. Mai 2019
- Deutsch
- Abmessung: 231mm x 172mm x 26mm
- Gewicht: 818g
- ISBN-13: 9783836261425
- ISBN-10: 3836261421
- Artikelnr.: 53411364
- Herstellerkennzeichnung Die Herstellerinformationen sind derzeit nicht verfügbar.
- Rheinwerk Computing
- Verlag: Rheinwerk Verlag
- Artikelnr. des Verlages: 459/06142
- Seitenzahl: 447
- Erscheinungstermin: 2. Mai 2019
- Deutsch
- Abmessung: 231mm x 172mm x 26mm
- Gewicht: 818g
- ISBN-13: 9783836261425
- ISBN-10: 3836261421
- Artikelnr.: 53411364
- Herstellerkennzeichnung Die Herstellerinformationen sind derzeit nicht verfügbar.
Schwaiger, Roland
Dr. Roland Schwaiger studierte an der Bowling Green State University, OH (USA) Computer Science und an der Universität Salzburg (Österreich) Angewandte Informatik und Mathematik und promovierte dort im Bereich Mathematik. Nach mehrjähriger Assistententätigkeit an der Universität Salzburg kam er 1996 als Softwareentwickler zur SAP AG und entfaltete dort seine Fähigkeiten für drei Jahre im Bereich Human Resources in einem anregenden und inspirierenden Umfeld. Seit 1999 ist er als freiberuflicher Trainer, Lektor, Berater und Entwickler tätig (Zertifizierter Development Consultant SAP NetWeaver 2004 - Application Development Focus ABAP). Er setzt seine akademische Vorbildung und das bei SAP erworbene Wissen, abgerundet durch einen MBA in Prozess- und Projektmanagement, für die Softwareentwicklung in konkreten Entwicklungsprojekten und SAP-Schulungen ein. Die dort wiederum erworbenen Erkenntnisse trägt er zurück in die akademische Welt und verknüpft so Theorie und
Praxis.
Dr. Roland Schwaiger studierte an der Bowling Green State University, OH (USA) Computer Science und an der Universität Salzburg (Österreich) Angewandte Informatik und Mathematik und promovierte dort im Bereich Mathematik. Nach mehrjähriger Assistententätigkeit an der Universität Salzburg kam er 1996 als Softwareentwickler zur SAP AG und entfaltete dort seine Fähigkeiten für drei Jahre im Bereich Human Resources in einem anregenden und inspirierenden Umfeld. Seit 1999 ist er als freiberuflicher Trainer, Lektor, Berater und Entwickler tätig (Zertifizierter Development Consultant SAP NetWeaver 2004 - Application Development Focus ABAP). Er setzt seine akademische Vorbildung und das bei SAP erworbene Wissen, abgerundet durch einen MBA in Prozess- und Projektmanagement, für die Softwareentwicklung in konkreten Entwicklungsprojekten und SAP-Schulungen ein. Die dort wiederum erworbenen Erkenntnisse trägt er zurück in die akademische Welt und verknüpft so Theorie und
Praxis.
Materialien zum Buch ... 12
Vorwort ... 13
1. Einleitung ... 17
1.1 ... Wozu neuronale Netze? ... 17
1.2 ... Über dieses Buch ... 18
1.3 ... Der Inhalt kompakt ... 19
1.4 ... Ist die Biene eine Königin? ... 23
1.5 ... Ein künstliches neuronales Netz für den Bienenstaat ... 24
1.6 ... Von der Biologie zum künstlichen Neuron ... 28
1.7 ... Einordnung und der Rest ... 33
1.8 ... Zusammenfassung ... 40
1.9 ... Referenzen ... 41
Teil I Up and running ... 43
2. Das minimale Starterkit für die Entwicklung von neuronalen Netzen mit Python ... 45
2.1 ... Die technische Entwicklungsumgebung ... 45
2.2 ... Zusammenfassung ... 62
3. Ein einfaches neuronales Netz ... 63
3.1 ... Vorgeschichte ... 63
3.2 ... Her mit dem neuronalen Netz! ... 63
3.3 ... Neuron-Zoom-in ... 67
3.4 ... Stufenfunktion ... 71
3.5 ... Perceptron ... 73
3.6 ... Punkte im Raum - Vektorrepräsentation ... 75
3.7 ... Horizontal und vertikal - Spalten- und Zeilenschreibweise ... 81
3.8 ... Die gewichtete Summe ... 84
3.9 ... Schritt für Schritt - Stufenfunktionen ... 84
3.10 ... Die gewichtete Summe reloaded ... 85
3.11 ... Alles zusammen ... 86
3.12 ... Aufgabe - Roboterschutz ... 88
3.13 ... Zusammenfassung ... 91
3.14 ... Referenzen ... 91
4. Lernen im einfachen Netz ... 93
4.1 ... Vorgeschichte: Man lässt planen ... 93
4.2 ... Lernen im Python-Code ... 95
4.3 ... Perceptron-Lernen ... 95
4.4 ... Trenngerade für einen Lernschritt ... 99
4.5 ... Perceptron-Lernalgorithmus ... 100
4.6 ... Die Trenngeraden bzw. Hyperplanes oder auch Hyperebenen für das Beispiel ... 105
4.7 ... scikit-learn-kompatibler Estimator ... 109
4.8 ... scikit-learn-Perceptron-Estimator ... 116
4.9 ... Adaline ... 118
4.10 ... Zusammenfassung ... 126
4.11 ... Referenzen ... 128
5. Mehrschichtige neuronale Netze ... 129
5.1 ... Ein echtes Problem ... 129
5.2 ... XOR kann man lösen ... 131
5.3 ... Vorbereitungen für den Start ... 135
5.4 ... Der Plan für die Umsetzung ... 137
5.5 ... Das Setup ("class") ... 138
5.6 ... Die Initialisierung ("__init__") ... 140
5.7 ... Was für zwischendurch ("print") ... 142
5.8 ... Die Auswertung ("predict") ... 143
5.9 ... Die Verwendung ... 145
5.10 ... Zusammenfassung ... 147
6. Lernen im mehrschichtigen Netz ... 149
6.1 ... Wie misst man einen Fehler? ... 149
6.2 ... Gradientenabstieg an einem Beispiel ... 151
6.3 ... Ein Netz aus sigmoiden Neuronen ... 160
6.4 ... Der coole Algorithmus mit Vorwärts-Delta und Rückwärts-Multiplikation ... 162
6.5 ... Ein "fit"-Durchlauf ... 175
6.6 ... Zusammenfassung ... 184
6.7 ... Referenz ... 184
7. Convolutional Neural Networks ... 185
7.1 ... Aufbau eines CNN ... 187
7.2 ... Der Detektionsteil ... 188
7.3 ... Der Identifikationsteil ... 195
7.4 ... Trainieren von Convolutional Neural Networks ... 197
7.5 ... Zusammenfassung ... 206
7.6 ... Referenzen ... 206
8. Programmierung von Convolutional Neural Networks mit TensorFlow ... 207
8.1 ... Einführung in TensorFlow ... 207
8.2 ... Convolutional Networks zur Handschriftenerkennung ... 215
8.3 ... Transfer Learning mit Convolutional Neural Networks ... 228
8.4 ... Zusammenfassung ... 237
8.5 ... Referenzen ... 237
Teil II Deep Dive ... 239
9. Vom Hirn zum Netz ... 241
9.1 ... Ihr Gehirn in Aktion ... 241
9.2 ... Das Nervensystem ... 242
9.3 ... Das Gehirn ... 243
9.4 ... Neuronen und Gliazellen ... 245
9.5 ... Eine Übertragung im Detail ... 247
9.6 ... Darstellung von Zellen und Netzen ... 250
9.7 ... Zusammenfassung ... 252
9.8 ... Referenzen ... 253
10. Die Evolution der neuronalen Netze ... 255
10.1 ... 1940er ... 255
10.2 ... 1950er ... 258
10.3 ... 1960er ... 260
10.4 ... 1970er ... 260
10.5 ... 1980er ... 261
10.6 ... 1990er ... 274
10.7 ... 2000er ... 275
10.8 ... 2010er ... 2
Vorwort ... 13
1. Einleitung ... 17
1.1 ... Wozu neuronale Netze? ... 17
1.2 ... Über dieses Buch ... 18
1.3 ... Der Inhalt kompakt ... 19
1.4 ... Ist die Biene eine Königin? ... 23
1.5 ... Ein künstliches neuronales Netz für den Bienenstaat ... 24
1.6 ... Von der Biologie zum künstlichen Neuron ... 28
1.7 ... Einordnung und der Rest ... 33
1.8 ... Zusammenfassung ... 40
1.9 ... Referenzen ... 41
Teil I Up and running ... 43
2. Das minimale Starterkit für die Entwicklung von neuronalen Netzen mit Python ... 45
2.1 ... Die technische Entwicklungsumgebung ... 45
2.2 ... Zusammenfassung ... 62
3. Ein einfaches neuronales Netz ... 63
3.1 ... Vorgeschichte ... 63
3.2 ... Her mit dem neuronalen Netz! ... 63
3.3 ... Neuron-Zoom-in ... 67
3.4 ... Stufenfunktion ... 71
3.5 ... Perceptron ... 73
3.6 ... Punkte im Raum - Vektorrepräsentation ... 75
3.7 ... Horizontal und vertikal - Spalten- und Zeilenschreibweise ... 81
3.8 ... Die gewichtete Summe ... 84
3.9 ... Schritt für Schritt - Stufenfunktionen ... 84
3.10 ... Die gewichtete Summe reloaded ... 85
3.11 ... Alles zusammen ... 86
3.12 ... Aufgabe - Roboterschutz ... 88
3.13 ... Zusammenfassung ... 91
3.14 ... Referenzen ... 91
4. Lernen im einfachen Netz ... 93
4.1 ... Vorgeschichte: Man lässt planen ... 93
4.2 ... Lernen im Python-Code ... 95
4.3 ... Perceptron-Lernen ... 95
4.4 ... Trenngerade für einen Lernschritt ... 99
4.5 ... Perceptron-Lernalgorithmus ... 100
4.6 ... Die Trenngeraden bzw. Hyperplanes oder auch Hyperebenen für das Beispiel ... 105
4.7 ... scikit-learn-kompatibler Estimator ... 109
4.8 ... scikit-learn-Perceptron-Estimator ... 116
4.9 ... Adaline ... 118
4.10 ... Zusammenfassung ... 126
4.11 ... Referenzen ... 128
5. Mehrschichtige neuronale Netze ... 129
5.1 ... Ein echtes Problem ... 129
5.2 ... XOR kann man lösen ... 131
5.3 ... Vorbereitungen für den Start ... 135
5.4 ... Der Plan für die Umsetzung ... 137
5.5 ... Das Setup ("class") ... 138
5.6 ... Die Initialisierung ("__init__") ... 140
5.7 ... Was für zwischendurch ("print") ... 142
5.8 ... Die Auswertung ("predict") ... 143
5.9 ... Die Verwendung ... 145
5.10 ... Zusammenfassung ... 147
6. Lernen im mehrschichtigen Netz ... 149
6.1 ... Wie misst man einen Fehler? ... 149
6.2 ... Gradientenabstieg an einem Beispiel ... 151
6.3 ... Ein Netz aus sigmoiden Neuronen ... 160
6.4 ... Der coole Algorithmus mit Vorwärts-Delta und Rückwärts-Multiplikation ... 162
6.5 ... Ein "fit"-Durchlauf ... 175
6.6 ... Zusammenfassung ... 184
6.7 ... Referenz ... 184
7. Convolutional Neural Networks ... 185
7.1 ... Aufbau eines CNN ... 187
7.2 ... Der Detektionsteil ... 188
7.3 ... Der Identifikationsteil ... 195
7.4 ... Trainieren von Convolutional Neural Networks ... 197
7.5 ... Zusammenfassung ... 206
7.6 ... Referenzen ... 206
8. Programmierung von Convolutional Neural Networks mit TensorFlow ... 207
8.1 ... Einführung in TensorFlow ... 207
8.2 ... Convolutional Networks zur Handschriftenerkennung ... 215
8.3 ... Transfer Learning mit Convolutional Neural Networks ... 228
8.4 ... Zusammenfassung ... 237
8.5 ... Referenzen ... 237
Teil II Deep Dive ... 239
9. Vom Hirn zum Netz ... 241
9.1 ... Ihr Gehirn in Aktion ... 241
9.2 ... Das Nervensystem ... 242
9.3 ... Das Gehirn ... 243
9.4 ... Neuronen und Gliazellen ... 245
9.5 ... Eine Übertragung im Detail ... 247
9.6 ... Darstellung von Zellen und Netzen ... 250
9.7 ... Zusammenfassung ... 252
9.8 ... Referenzen ... 253
10. Die Evolution der neuronalen Netze ... 255
10.1 ... 1940er ... 255
10.2 ... 1950er ... 258
10.3 ... 1960er ... 260
10.4 ... 1970er ... 260
10.5 ... 1980er ... 261
10.6 ... 1990er ... 274
10.7 ... 2000er ... 275
10.8 ... 2010er ... 2
Materialien zum Buch ... 12
Vorwort ... 13
1. Einleitung ... 17
1.1 ... Wozu neuronale Netze? ... 17
1.2 ... Über dieses Buch ... 18
1.3 ... Der Inhalt kompakt ... 19
1.4 ... Ist die Biene eine Königin? ... 23
1.5 ... Ein künstliches neuronales Netz für den Bienenstaat ... 24
1.6 ... Von der Biologie zum künstlichen Neuron ... 28
1.7 ... Einordnung und der Rest ... 33
1.8 ... Zusammenfassung ... 40
1.9 ... Referenzen ... 41
Teil I Up and running ... 43
2. Das minimale Starterkit für die Entwicklung von neuronalen Netzen mit Python ... 45
2.1 ... Die technische Entwicklungsumgebung ... 45
2.2 ... Zusammenfassung ... 62
3. Ein einfaches neuronales Netz ... 63
3.1 ... Vorgeschichte ... 63
3.2 ... Her mit dem neuronalen Netz! ... 63
3.3 ... Neuron-Zoom-in ... 67
3.4 ... Stufenfunktion ... 71
3.5 ... Perceptron ... 73
3.6 ... Punkte im Raum - Vektorrepräsentation ... 75
3.7 ... Horizontal und vertikal - Spalten- und Zeilenschreibweise ... 81
3.8 ... Die gewichtete Summe ... 84
3.9 ... Schritt für Schritt - Stufenfunktionen ... 84
3.10 ... Die gewichtete Summe reloaded ... 85
3.11 ... Alles zusammen ... 86
3.12 ... Aufgabe - Roboterschutz ... 88
3.13 ... Zusammenfassung ... 91
3.14 ... Referenzen ... 91
4. Lernen im einfachen Netz ... 93
4.1 ... Vorgeschichte: Man lässt planen ... 93
4.2 ... Lernen im Python-Code ... 95
4.3 ... Perceptron-Lernen ... 95
4.4 ... Trenngerade für einen Lernschritt ... 99
4.5 ... Perceptron-Lernalgorithmus ... 100
4.6 ... Die Trenngeraden bzw. Hyperplanes oder auch Hyperebenen für das Beispiel ... 105
4.7 ... scikit-learn-kompatibler Estimator ... 109
4.8 ... scikit-learn-Perceptron-Estimator ... 116
4.9 ... Adaline ... 118
4.10 ... Zusammenfassung ... 126
4.11 ... Referenzen ... 128
5. Mehrschichtige neuronale Netze ... 129
5.1 ... Ein echtes Problem ... 129
5.2 ... XOR kann man lösen ... 131
5.3 ... Vorbereitungen für den Start ... 135
5.4 ... Der Plan für die Umsetzung ... 137
5.5 ... Das Setup ("class") ... 138
5.6 ... Die Initialisierung ("__init__") ... 140
5.7 ... Was für zwischendurch ("print") ... 142
5.8 ... Die Auswertung ("predict") ... 143
5.9 ... Die Verwendung ... 145
5.10 ... Zusammenfassung ... 147
6. Lernen im mehrschichtigen Netz ... 149
6.1 ... Wie misst man einen Fehler? ... 149
6.2 ... Gradientenabstieg an einem Beispiel ... 151
6.3 ... Ein Netz aus sigmoiden Neuronen ... 160
6.4 ... Der coole Algorithmus mit Vorwärts-Delta und Rückwärts-Multiplikation ... 162
6.5 ... Ein "fit"-Durchlauf ... 175
6.6 ... Zusammenfassung ... 184
6.7 ... Referenz ... 184
7. Convolutional Neural Networks ... 185
7.1 ... Aufbau eines CNN ... 187
7.2 ... Der Detektionsteil ... 188
7.3 ... Der Identifikationsteil ... 195
7.4 ... Trainieren von Convolutional Neural Networks ... 197
7.5 ... Zusammenfassung ... 206
7.6 ... Referenzen ... 206
8. Programmierung von Convolutional Neural Networks mit TensorFlow ... 207
8.1 ... Einführung in TensorFlow ... 207
8.2 ... Convolutional Networks zur Handschriftenerkennung ... 215
8.3 ... Transfer Learning mit Convolutional Neural Networks ... 228
8.4 ... Zusammenfassung ... 237
8.5 ... Referenzen ... 237
Teil II Deep Dive ... 239
9. Vom Hirn zum Netz ... 241
9.1 ... Ihr Gehirn in Aktion ... 241
9.2 ... Das Nervensystem ... 242
9.3 ... Das Gehirn ... 243
9.4 ... Neuronen und Gliazellen ... 245
9.5 ... Eine Übertragung im Detail ... 247
9.6 ... Darstellung von Zellen und Netzen ... 250
9.7 ... Zusammenfassung ... 252
9.8 ... Referenzen ... 253
10. Die Evolution der neuronalen Netze ... 255
10.1 ... 1940er ... 255
10.2 ... 1950er ... 258
10.3 ... 1960er ... 260
10.4 ... 1970er ... 260
10.5 ... 1980er ... 261
10.6 ... 1990er ... 274
10.7 ... 2000er ... 275
10.8 ... 2010er ... 2
Vorwort ... 13
1. Einleitung ... 17
1.1 ... Wozu neuronale Netze? ... 17
1.2 ... Über dieses Buch ... 18
1.3 ... Der Inhalt kompakt ... 19
1.4 ... Ist die Biene eine Königin? ... 23
1.5 ... Ein künstliches neuronales Netz für den Bienenstaat ... 24
1.6 ... Von der Biologie zum künstlichen Neuron ... 28
1.7 ... Einordnung und der Rest ... 33
1.8 ... Zusammenfassung ... 40
1.9 ... Referenzen ... 41
Teil I Up and running ... 43
2. Das minimale Starterkit für die Entwicklung von neuronalen Netzen mit Python ... 45
2.1 ... Die technische Entwicklungsumgebung ... 45
2.2 ... Zusammenfassung ... 62
3. Ein einfaches neuronales Netz ... 63
3.1 ... Vorgeschichte ... 63
3.2 ... Her mit dem neuronalen Netz! ... 63
3.3 ... Neuron-Zoom-in ... 67
3.4 ... Stufenfunktion ... 71
3.5 ... Perceptron ... 73
3.6 ... Punkte im Raum - Vektorrepräsentation ... 75
3.7 ... Horizontal und vertikal - Spalten- und Zeilenschreibweise ... 81
3.8 ... Die gewichtete Summe ... 84
3.9 ... Schritt für Schritt - Stufenfunktionen ... 84
3.10 ... Die gewichtete Summe reloaded ... 85
3.11 ... Alles zusammen ... 86
3.12 ... Aufgabe - Roboterschutz ... 88
3.13 ... Zusammenfassung ... 91
3.14 ... Referenzen ... 91
4. Lernen im einfachen Netz ... 93
4.1 ... Vorgeschichte: Man lässt planen ... 93
4.2 ... Lernen im Python-Code ... 95
4.3 ... Perceptron-Lernen ... 95
4.4 ... Trenngerade für einen Lernschritt ... 99
4.5 ... Perceptron-Lernalgorithmus ... 100
4.6 ... Die Trenngeraden bzw. Hyperplanes oder auch Hyperebenen für das Beispiel ... 105
4.7 ... scikit-learn-kompatibler Estimator ... 109
4.8 ... scikit-learn-Perceptron-Estimator ... 116
4.9 ... Adaline ... 118
4.10 ... Zusammenfassung ... 126
4.11 ... Referenzen ... 128
5. Mehrschichtige neuronale Netze ... 129
5.1 ... Ein echtes Problem ... 129
5.2 ... XOR kann man lösen ... 131
5.3 ... Vorbereitungen für den Start ... 135
5.4 ... Der Plan für die Umsetzung ... 137
5.5 ... Das Setup ("class") ... 138
5.6 ... Die Initialisierung ("__init__") ... 140
5.7 ... Was für zwischendurch ("print") ... 142
5.8 ... Die Auswertung ("predict") ... 143
5.9 ... Die Verwendung ... 145
5.10 ... Zusammenfassung ... 147
6. Lernen im mehrschichtigen Netz ... 149
6.1 ... Wie misst man einen Fehler? ... 149
6.2 ... Gradientenabstieg an einem Beispiel ... 151
6.3 ... Ein Netz aus sigmoiden Neuronen ... 160
6.4 ... Der coole Algorithmus mit Vorwärts-Delta und Rückwärts-Multiplikation ... 162
6.5 ... Ein "fit"-Durchlauf ... 175
6.6 ... Zusammenfassung ... 184
6.7 ... Referenz ... 184
7. Convolutional Neural Networks ... 185
7.1 ... Aufbau eines CNN ... 187
7.2 ... Der Detektionsteil ... 188
7.3 ... Der Identifikationsteil ... 195
7.4 ... Trainieren von Convolutional Neural Networks ... 197
7.5 ... Zusammenfassung ... 206
7.6 ... Referenzen ... 206
8. Programmierung von Convolutional Neural Networks mit TensorFlow ... 207
8.1 ... Einführung in TensorFlow ... 207
8.2 ... Convolutional Networks zur Handschriftenerkennung ... 215
8.3 ... Transfer Learning mit Convolutional Neural Networks ... 228
8.4 ... Zusammenfassung ... 237
8.5 ... Referenzen ... 237
Teil II Deep Dive ... 239
9. Vom Hirn zum Netz ... 241
9.1 ... Ihr Gehirn in Aktion ... 241
9.2 ... Das Nervensystem ... 242
9.3 ... Das Gehirn ... 243
9.4 ... Neuronen und Gliazellen ... 245
9.5 ... Eine Übertragung im Detail ... 247
9.6 ... Darstellung von Zellen und Netzen ... 250
9.7 ... Zusammenfassung ... 252
9.8 ... Referenzen ... 253
10. Die Evolution der neuronalen Netze ... 255
10.1 ... 1940er ... 255
10.2 ... 1950er ... 258
10.3 ... 1960er ... 260
10.4 ... 1970er ... 260
10.5 ... 1980er ... 261
10.6 ... 1990er ... 274
10.7 ... 2000er ... 275
10.8 ... 2010er ... 2