43,90 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 6-10 Tagen
  • Broschiertes Buch

Dieses Buch stellt einen ersten Schritt in Richtung eingebettetes maschinelles Lernen dar. Es stellt Techniken zur Optimierung und Komprimierung von Deep-Learning-Modellen vor. Diese Techniken erleichtern den Einsatz eines leistungsstarken und leichten Deep-Learning-Modells auf Geräten mit begrenzten Ressourcen wie Smartphones und Mikrocontrollern. Dieses Dokument untersucht auch eine hochaktuelle Technik zur Übertragung von Wissen, nämlich die Wissensdestillation. Mit dieser Technik kann die Leistung eines leichtgewichtigen Deep-Learning-Modells verbessert werden, während gleichzeitig das…mehr

Produktbeschreibung
Dieses Buch stellt einen ersten Schritt in Richtung eingebettetes maschinelles Lernen dar. Es stellt Techniken zur Optimierung und Komprimierung von Deep-Learning-Modellen vor. Diese Techniken erleichtern den Einsatz eines leistungsstarken und leichten Deep-Learning-Modells auf Geräten mit begrenzten Ressourcen wie Smartphones und Mikrocontrollern. Dieses Dokument untersucht auch eine hochaktuelle Technik zur Übertragung von Wissen, nämlich die Wissensdestillation. Mit dieser Technik kann die Leistung eines leichtgewichtigen Deep-Learning-Modells verbessert werden, während gleichzeitig das Wissen eines komplexen und leistungsfähigen Deep-Learning-Modells auf dieses übertragen wird. Alle diese Techniken wurden in diesem Buch detailliert beschrieben und durch praktische Python-Implementierungen veranschaulicht, die in der Regel auf der Verwendung der Bibliotheken pytorch und tensorflow basieren.
Autorenporträt
Afef Mdhaffar promovierte 2014 in Informatik an der Universität Marburg, Deutschland. Derzeit ist sie als Oberassistentin für Informatik an der École Nationale d'Ingénieurs de Sfax (ENIS) in Tunesien tätig. Ihre Arbeit konzentriert sich derzeit auf Techniken zur Optimierung von Deep-Learning-Modellen.