39,99 €
39,99 €
inkl. MwSt.
Sofort per Download lieferbar
payback
20 °P sammeln
39,99 €
39,99 €
inkl. MwSt.
Sofort per Download lieferbar

Alle Infos zum eBook verschenken
payback
20 °P sammeln
Als Download kaufen
39,99 €
inkl. MwSt.
Sofort per Download lieferbar
payback
20 °P sammeln
Jetzt verschenken
39,99 €
inkl. MwSt.
Sofort per Download lieferbar

Alle Infos zum eBook verschenken
payback
20 °P sammeln
  • Format: PDF

In uralten Spielen wie Schach oder Go können sich die brillantesten Spieler verbessern, indem sie die von einer Maschine produzierten Strategien studieren. Robotische Systeme üben ihre Bewegungen selbst. In Arcade Games erreichen lernfähige Agenten innerhalb weniger Stunden übermenschliches Niveau. Wie funktionieren diese spektakulären Algorithmen des bestärkenden Lernens? Mit gut verständlichen Erklärungen und übersichtlichen Beispielen in Java und Greenfoot können Sie sich die Prinzipien des bestärkenden Lernens aneignen und in eigenen intelligenten Agenten anwenden. Greenfoot (M.Kölling,…mehr

Produktbeschreibung
In uralten Spielen wie Schach oder Go können sich die brillantesten Spieler verbessern, indem sie die von einer Maschine produzierten Strategien studieren. Robotische Systeme üben ihre Bewegungen selbst. In Arcade Games erreichen lernfähige Agenten innerhalb weniger Stunden übermenschliches Niveau. Wie funktionieren diese spektakulären Algorithmen des bestärkenden Lernens? Mit gut verständlichen Erklärungen und übersichtlichen Beispielen in Java und Greenfoot können Sie sich die Prinzipien des bestärkenden Lernens aneignen und in eigenen intelligenten Agenten anwenden. Greenfoot (M.Kölling, King's College London) und das Hamster-Modell (D.Bohles, Universität Oldenburg) sind einfache aber auch mächtige didaktische Werkzeuge, die entwickelt wurden, um Grundkonzepte der Programmierung zu vermitteln. Wir werden Figuren wie den Java-Hamster zu lernfähigen Agenten machen, die eigenständig ihre Umgebung erkunden.
Der Inhalt
  • Bestärkendes Lernen als Teilgebiet des Maschinellen Lernens
  • Grundbegriffe des Bestärkenden Lernens
  • Optimale Entscheidungen in einem bekannten Umweltsystem - dynamische Programmierung - rekursive Tiefensuche
  • Entscheiden und Lernen in einem unbekannten Umweltsystem - Monte Carlo-Evaluationen und Monte Carlo-Baumsuche (MCTS) - Q- und Sarsa Learning, Eignungspfade, Dyna-Q
    - Policy Gradient und Actor-Critic
  • neuronale Netze als Schätzer für Zustandsbewertungen und Aktionspreferenzen
  • Werden digitale Agenten bald intelligenter als Menschen sein?
  • Leitbilder in der K.I.
Die Zielgruppen
  • Fortbildung für Lehrkräfte, Dozenten, die Einblicke in die Programmierung von lernfähigen Agenten bekommen möchten
  • Techniker, Informatiker, die ML-Algorithmen besser verstehen wollen
  • Programmierer, die Lernalgorithmen selbst implementieren wollen
  • Schüler oder Studierende, die sich mit maschinellem Lernen und intelligentenAgenten beschäftigen
Der Autor
Uwe Lorenz ist nach seinem Studium der Informatik und Philosophie mit Schwerpunkt künstliche Intelligenz und maschinelles Lernen an der Humboldt-Universität in Berlin und einigen Jahren als Projektingenieur derzeit als Gymnasiallehrer für Informatik und Mathematik tätig, - seit seinem Erstkontakt mit Computern Ende der 80iger Jahre hat ihn das Thema Künstliche Intelligenz nicht mehr losgelassen.

Dieser Download kann aus rechtlichen Gründen nur mit Rechnungsadresse in A, B, BG, CY, CZ, D, DK, EW, E, FIN, F, GR, HR, H, IRL, I, LT, L, LR, M, NL, PL, P, R, S, SLO, SK ausgeliefert werden.

Autorenporträt
Nach seinem Studium der Informatik und Philosophie mit Schwerpunkt künstliche Intelligenz und maschinelles Lernen an der Humboldt-Universität in Berlin und einigen Jahren als Projektingenieur ist Uwe Lorenz derzeit als Gymnasiallehrer für Informatik und Mathematik tätig. Seit seinem Erstkontakt mit Computern Ende der 80er Jahre hat ihn das Thema Künstliche Intelligenz nicht mehr losgelassen.