Künstliche Intelligenz verstehen
Der praktische Einstieg ins Fachgebiet KI - Ausprobieren und Weiterprogrammieren, mit Übungen und Glossar
Künstliche Intelligenz verstehen
Der praktische Einstieg ins Fachgebiet KI - Ausprobieren und Weiterprogrammieren, mit Übungen und Glossar
- Broschiertes Buch
- Merkliste
- Auf die Merkliste
- Bewerten Bewerten
- Teilen
- Produkt teilen
- Produkterinnerung
- Produkterinnerung
Neugierig auf KI? Lust, zu experimentieren? Dann sind Sie hier richtig. Es erwartet Sie mehr als ein Buch: Mit den im Web bereitgestellten Beispielen können Sie zuschauen und ausprobieren, wie verschiedene KI-Verfahren Texte ergänzen, Spiele gewinnen (oder auch verlieren - das hängt ganz von Ihnen ab ...), Daten sortieren und vieles mehr. Sie können Parameter wie Textlänge oder Anzahl der Versuche verändern oder auch direkt Hand an den Code anlegen und sehen, was passiert. Dank der Web-Umgebung p5js genügt einfaches JavaScript, um die visuellen Programme zu erstellen. So können Sie sich ganz…mehr
- Metin KaratasEigene KI-Anwendungen programmieren29,90 €
- Uwe LämmelKünstliche Intelligenz34,99 €
- Alexander LothKI für Content Creation24,99 €
- Olivier CaelenAnwendungen mit GPT-4 und ChatGPT entwickeln32,90 €
- Thomas TheisEinstieg in Python24,90 €
- Ralf OtteKünstliche Intelligenz für Dummies26,00 €
- Manuela LenzenKünstliche Intelligenz12,00 €
-
-
-
-
-
-
-
-
-
-
-
-
Pit Noack zeigt Ihnen im Buch Schritt für Schritt und Verfahren für Verfahren, was dahinter steckt. Mit handgezeichneten Lerngrafiken und Cartoons von Sophia Sanner. Alle Projekte zum Nachprogrammieren, Herunterladen oder online Bearbeiten. Experimente erwünscht!
Aus dem Inhalt:
Grundlagen aus der InformatikWörter und Sätze vervollständigenSchreibfehler automatisch korrigierenZusammenhänge erkennen und Daten ordnenSelbstlernende AlgorithmenNeuronale NetzeTransformer und Large Language ModelsAuch für Kultur- und Medieninteressierte geeignet
- Produktdetails
- Rheinwerk Computing
- Verlag: Rheinwerk Computing / Rheinwerk Verlag
- Artikelnr. des Verlages: 459/09858
- 2. Aufl.
- Seitenzahl: 382
- Erscheinungstermin: 7. November 2023
- Deutsch
- Abmessung: 227mm x 170mm x 24mm
- Gewicht: 724g
- ISBN-13: 9783836298582
- ISBN-10: 3836298589
- Artikelnr.: 68447227
- Rheinwerk Computing
- Verlag: Rheinwerk Computing / Rheinwerk Verlag
- Artikelnr. des Verlages: 459/09858
- 2. Aufl.
- Seitenzahl: 382
- Erscheinungstermin: 7. November 2023
- Deutsch
- Abmessung: 227mm x 170mm x 24mm
- Gewicht: 724g
- ISBN-13: 9783836298582
- ISBN-10: 3836298589
- Artikelnr.: 68447227
Vorwort zur zweiten Auflage ... 17
1. Einleitung ... 19
1.1 ... Worum es uns in diesem Buch geht ... 20
1.2 ... Für wen wir dieses Buch geschrieben haben ... 21
1.3 ... Aufbau der einzelnen Kapitel ... 22
1.4 ... Ein Wort an die Programmierunkundigen ... 22
1.5 ... Beispielprogramme und die Webseite zum Buch ... 23
1.6 ... Warum wir JavaScript und p5.js verwendet haben ... 25
1.7 ... Begriffliche Abgrenzung und Fachbegriffe ... 26
1.8 ... Inhalte, Themen, Kapitel ... 27
1.9 ... Dank ... 30
2. Texte bauen mit Markow ... 31
2.1 ... Das Beispielprogramm Nonsense-Texter ... 35
2.2 ... Der Code des Nonsense-Texters unter der Lupe ... 37
2.3 ... Das Beispielprogramm Wörter vorschlagen ... 43
2.4 ... Wörter vorschlagen ... 47
2.5 ... Gewichteter Zufall ... 48
2.6 ... Ideen zum Weitermachen ... 50
2.7 ... Zusammenfassung und Ausblick ... 51
3. Schreibfehler automatisch korrigieren ... 53
3.1 ... Das Beispielprogramm Wortvergleich ... 54
3.2 ... Die Matrix befüllen ... 57
3.3 ... Die Umsetzung im Beispielprogramm ... 62
3.4 ... Das Beispielprogramm Korrekturvorschläge ... 65
3.5 ... Ideen zum Weitermachen ... 67
3.6 ... Zusammenfassung und Ausblick ... 68
4. Wörter gruppieren ... 69
4.1 ... Items und Transaktionen ... 71
4.2 ... Kenngrößen der Assoziationsanalyse ... 72
4.3 ... Ein Beispiel von Hand gerechnet ... 76
4.4 ... Das Beispielprogramm Begriffsnetz ... 79
4.5 ... Eine Tour durch den Code ... 82
4.6 ... Ideen zum Weitermachen ... 88
4.7 ... Zusammenfassung und Ausblick ... 90
5. Spiele für eine Person lösen ... 93
5.1 ... Das Spiel Fruchtkräsch ... 93
5.2 ... Wie findet die KI den besten Zug? ... 95
5.3 ... Eine vielseitig einsetzbare Spiel-KI ... 98
5.4 ... Die Klasse Spielzustand ... 99
5.5 ... Die Klasse KI ... 102
5.6 ... Ideen zum Weitermachen ... 107
5.7 ... Zusammenfassung und Ausblick ... 108
6. Spiele für zwei Personen gewinnen ... 109
6.1 ... Das Spiel Reversi ... 110
6.2 ... Das Beispielprogramm Reversi KI ... 111
6.3 ... Der Minimax-Algorithmus ... 112
6.4 ... Tiefensuche und Rekursion ... 115
6.5 ... Die Klasse Spielzustand ... 123
6.6 ... Die Klasse KI ... 126
6.7 ... Beschleunigung mit Alpha-Beta-Pruning ... 130
6.8 ... Ideen zum Weitermachen ... 131
6.9 ... Zusammenfassung und Ausblick ... 132
7. Q-Learning ... 133
7.1 ... Das Eichhörnchen und das Nussversteck ... 134
7.2 ... Umwelt, Agent, Aktion und Belohnung ... 139
7.3 ... Die Q-Tabelle ... 141
7.4 ... Das Beispielprogramm Q-Lerner ... 142
7.5 ... Die Q-Tabelle befüllen ... 147
7.6 ... Der Code unter der Lupe ... 150
7.7 ... Gamma bestimmt die Weitsicht ... 152
7.8 ... Epsilon: Erforschung oder Anwendung ... 154
7.9 ... Ein zweiter Blick auf den Code ... 156
7.10 ... Alpha ... 158
7.11 ... Was wir weggelassen haben ... 159
7.12 ... Ideen zum Weitermachen ... 161
7.13 ... Zusammenfassung und Ausblick ... 163
8. K-nächste-Nachbarn ... 167
8.1 ... Häschen, Igel, Vogelspinne oder Hai? ... 168
8.2 ... Das Beispielprogramm Tiere erkennen ... 169
8.3 ... Entfernungen bestimmen mit Pythagoras ... 172
8.4 ... Der Code im Detail ... 175
8.5 ... Ideen zum Weitermachen ... 178
8.6 ... Zusammenfassung und Ausblick ... 179
9. K-means-Clustering ... 181
9.1 ... Clusterbildung in Aktion ... 183
9.2 ... Das Beispielprogramm Wetterdaten gruppieren ... 186
9.3 ... Der Code ... 188
9.4 ... Grenzen des Verfahrens ... 191
9.5 ... Ideen zum Weitermachen ... 195
9.6 ... Zusammenfassung und Ausblick ... 195
10. Neuronale Netze I: Das Häschenproblem ... 197
10.1 ... Bilderkennung: ein klassisches Problem ... 198
10.2 ... Was ist ein Modell? ... 199
10.3 ... Der Aufbau eines neuronalen Netzes ... 201
10.4 ... Das Häschenneuron und seine Kollegen ... 204
10.5 ... Das Beispielprogramm Tiere erkennen II ... 209
10.6 ... Der Code ... 211
10.7 ... Ideen zum Weitermachen ... 211
10.8 ... Zusammenfassung und Ausblick ... 212
11. Neuronale Netze II: Auf dem Weg ins Tal ... 213
11.1 ... Das überwachte Lernen ... 214
11.2 ... Die schrittweise Justierung des Modells ... 216
11.3 ... Das Beispielprogramm Gradientenabstieg ... 223
11.4 ... Der Code ... 225
11.5 ... Tipps zum Weitermachen ... 226
11.6 ... Zusammenfassung und Ausblick ... 226
12. Neuronale Netze III: Fehler zurückverfolgen mit dem Neuronentrainer ... 229
12.1 ... Was ist Backpropagation? ... 230
12.2 ... Das Beispielprogramm Neuronentrainer ... 231
12.3 ... Validierungsdaten, Überanpassung, Generatoren ... 237
12.4 ... Weitere Beispielaufgaben ... 240
12.5 ... Die Anzahlen der verdeckten Schichten und der Neuronen ... 244
12.6 ... Was wir weggelassen haben ... 245
12.7 ... Ideen zum Weitermachen ... 246
12.8 ... Zusammenfassung und Ausblick ... 248
13. Neuronale Netze IV: Faltungsnetze, Autoencoder, GANs und DQL ... 249
13.1 ... Faltungsnetze ... 249
13.2 ... Modelle, die Bilder erzeugen ... 258
13.3 ... Autoencoder ... 260
13.4 ... Generative Adversarial Networks ... 261
13.5 ... Deep Q-Learning ... 264
13.6 ... Zusammenfassung und Ausblick ... 265
14. Transformer verstehen ... 267
14.1 ... Ein Sprachmodell von außen betrachtet ... 267
14.2 ... Wörter in Zahlen codieren für Fortgeschrittene ... 269
14.3 ... Worteinbettungen ... 270
14.4 ... Das Beispielprogramm Wort-Navigator ... 276
14.5 ... Vom Text zur Worteinbettung ... 282
14.6 ... Vom Wort zum Satz zum Text: Sequenzeinbettungen ... 290
14.7 ... Das Beispielprogramm Sequenz-Navigator ... 292
14.8 ... Transformer am Horizont ... 297
14.9 ... Zusammenfassung und Ausblick ... 301
14.10 ... Ideen zum Weitermachen ... 304
Nachwort: Auf der Suche nach Trurls Elektrobarden ... 305
Anhang ... 313
A ... Eine kurze Einführung in JavaScript und p5.js ... 315
B ... Glossar ... 359
C ... Quellen und weiterführende Literatur ... 369
D ... Abbildungsverzeichnis ... 373
Index ... 377
Vorwort zur zweiten Auflage ... 17
1. Einleitung ... 19
1.1 ... Worum es uns in diesem Buch geht ... 20
1.2 ... Für wen wir dieses Buch geschrieben haben ... 21
1.3 ... Aufbau der einzelnen Kapitel ... 22
1.4 ... Ein Wort an die Programmierunkundigen ... 22
1.5 ... Beispielprogramme und die Webseite zum Buch ... 23
1.6 ... Warum wir JavaScript und p5.js verwendet haben ... 25
1.7 ... Begriffliche Abgrenzung und Fachbegriffe ... 26
1.8 ... Inhalte, Themen, Kapitel ... 27
1.9 ... Dank ... 30
2. Texte bauen mit Markow ... 31
2.1 ... Das Beispielprogramm Nonsense-Texter ... 35
2.2 ... Der Code des Nonsense-Texters unter der Lupe ... 37
2.3 ... Das Beispielprogramm Wörter vorschlagen ... 43
2.4 ... Wörter vorschlagen ... 47
2.5 ... Gewichteter Zufall ... 48
2.6 ... Ideen zum Weitermachen ... 50
2.7 ... Zusammenfassung und Ausblick ... 51
3. Schreibfehler automatisch korrigieren ... 53
3.1 ... Das Beispielprogramm Wortvergleich ... 54
3.2 ... Die Matrix befüllen ... 57
3.3 ... Die Umsetzung im Beispielprogramm ... 62
3.4 ... Das Beispielprogramm Korrekturvorschläge ... 65
3.5 ... Ideen zum Weitermachen ... 67
3.6 ... Zusammenfassung und Ausblick ... 68
4. Wörter gruppieren ... 69
4.1 ... Items und Transaktionen ... 71
4.2 ... Kenngrößen der Assoziationsanalyse ... 72
4.3 ... Ein Beispiel von Hand gerechnet ... 76
4.4 ... Das Beispielprogramm Begriffsnetz ... 79
4.5 ... Eine Tour durch den Code ... 82
4.6 ... Ideen zum Weitermachen ... 88
4.7 ... Zusammenfassung und Ausblick ... 90
5. Spiele für eine Person lösen ... 93
5.1 ... Das Spiel Fruchtkräsch ... 93
5.2 ... Wie findet die KI den besten Zug? ... 95
5.3 ... Eine vielseitig einsetzbare Spiel-KI ... 98
5.4 ... Die Klasse Spielzustand ... 99
5.5 ... Die Klasse KI ... 102
5.6 ... Ideen zum Weitermachen ... 107
5.7 ... Zusammenfassung und Ausblick ... 108
6. Spiele für zwei Personen gewinnen ... 109
6.1 ... Das Spiel Reversi ... 110
6.2 ... Das Beispielprogramm Reversi KI ... 111
6.3 ... Der Minimax-Algorithmus ... 112
6.4 ... Tiefensuche und Rekursion ... 115
6.5 ... Die Klasse Spielzustand ... 123
6.6 ... Die Klasse KI ... 126
6.7 ... Beschleunigung mit Alpha-Beta-Pruning ... 130
6.8 ... Ideen zum Weitermachen ... 131
6.9 ... Zusammenfassung und Ausblick ... 132
7. Q-Learning ... 133
7.1 ... Das Eichhörnchen und das Nussversteck ... 134
7.2 ... Umwelt, Agent, Aktion und Belohnung ... 139
7.3 ... Die Q-Tabelle ... 141
7.4 ... Das Beispielprogramm Q-Lerner ... 142
7.5 ... Die Q-Tabelle befüllen ... 147
7.6 ... Der Code unter der Lupe ... 150
7.7 ... Gamma bestimmt die Weitsicht ... 152
7.8 ... Epsilon: Erforschung oder Anwendung ... 154
7.9 ... Ein zweiter Blick auf den Code ... 156
7.10 ... Alpha ... 158
7.11 ... Was wir weggelassen haben ... 159
7.12 ... Ideen zum Weitermachen ... 161
7.13 ... Zusammenfassung und Ausblick ... 163
8. K-nächste-Nachbarn ... 167
8.1 ... Häschen, Igel, Vogelspinne oder Hai? ... 168
8.2 ... Das Beispielprogramm Tiere erkennen ... 169
8.3 ... Entfernungen bestimmen mit Pythagoras ... 172
8.4 ... Der Code im Detail ... 175
8.5 ... Ideen zum Weitermachen ... 178
8.6 ... Zusammenfassung und Ausblick ... 179
9. K-means-Clustering ... 181
9.1 ... Clusterbildung in Aktion ... 183
9.2 ... Das Beispielprogramm Wetterdaten gruppieren ... 186
9.3 ... Der Code ... 188
9.4 ... Grenzen des Verfahrens ... 191
9.5 ... Ideen zum Weitermachen ... 195
9.6 ... Zusammenfassung und Ausblick ... 195
10. Neuronale Netze I: Das Häschenproblem ... 197
10.1 ... Bilderkennung: ein klassisches Problem ... 198
10.2 ... Was ist ein Modell? ... 199
10.3 ... Der Aufbau eines neuronalen Netzes ... 201
10.4 ... Das Häschenneuron und seine Kollegen ... 204
10.5 ... Das Beispielprogramm Tiere erkennen II ... 209
10.6 ... Der Code ... 211
10.7 ... Ideen zum Weitermachen ... 211
10.8 ... Zusammenfassung und Ausblick ... 212
11. Neuronale Netze II: Auf dem Weg ins Tal ... 213
11.1 ... Das überwachte Lernen ... 214
11.2 ... Die schrittweise Justierung des Modells ... 216
11.3 ... Das Beispielprogramm Gradientenabstieg ... 223
11.4 ... Der Code ... 225
11.5 ... Tipps zum Weitermachen ... 226
11.6 ... Zusammenfassung und Ausblick ... 226
12. Neuronale Netze III: Fehler zurückverfolgen mit dem Neuronentrainer ... 229
12.1 ... Was ist Backpropagation? ... 230
12.2 ... Das Beispielprogramm Neuronentrainer ... 231
12.3 ... Validierungsdaten, Überanpassung, Generatoren ... 237
12.4 ... Weitere Beispielaufgaben ... 240
12.5 ... Die Anzahlen der verdeckten Schichten und der Neuronen ... 244
12.6 ... Was wir weggelassen haben ... 245
12.7 ... Ideen zum Weitermachen ... 246
12.8 ... Zusammenfassung und Ausblick ... 248
13. Neuronale Netze IV: Faltungsnetze, Autoencoder, GANs und DQL ... 249
13.1 ... Faltungsnetze ... 249
13.2 ... Modelle, die Bilder erzeugen ... 258
13.3 ... Autoencoder ... 260
13.4 ... Generative Adversarial Networks ... 261
13.5 ... Deep Q-Learning ... 264
13.6 ... Zusammenfassung und Ausblick ... 265
14. Transformer verstehen ... 267
14.1 ... Ein Sprachmodell von außen betrachtet ... 267
14.2 ... Wörter in Zahlen codieren für Fortgeschrittene ... 269
14.3 ... Worteinbettungen ... 270
14.4 ... Das Beispielprogramm Wort-Navigator ... 276
14.5 ... Vom Text zur Worteinbettung ... 282
14.6 ... Vom Wort zum Satz zum Text: Sequenzeinbettungen ... 290
14.7 ... Das Beispielprogramm Sequenz-Navigator ... 292
14.8 ... Transformer am Horizont ... 297
14.9 ... Zusammenfassung und Ausblick ... 301
14.10 ... Ideen zum Weitermachen ... 304
Nachwort: Auf der Suche nach Trurls Elektrobarden ... 305
Anhang ... 313
A ... Eine kurze Einführung in JavaScript und p5.js ... 315
B ... Glossar ... 359
C ... Quellen und weiterführende Literatur ... 369
D ... Abbildungsverzeichnis ... 373
Index ... 377