Dieses Buch stellt einen ersten Schritt in Richtung eingebettetes maschinelles Lernen dar. Es stellt Techniken zur Optimierung und Komprimierung von Deep-Learning-Modellen vor. Diese Techniken erleichtern den Einsatz eines leistungsstarken und leichten Deep-Learning-Modells auf Geräten mit begrenzten Ressourcen wie Smartphones und Mikrocontrollern. Dieses Dokument untersucht auch eine hochaktuelle Technik zur Übertragung von Wissen, nämlich die Wissensdestillation. Mit dieser Technik kann die Leistung eines leichtgewichtigen Deep-Learning-Modells verbessert werden, während gleichzeitig das Wissen eines komplexen und leistungsfähigen Deep-Learning-Modells auf dieses übertragen wird. Alle diese Techniken wurden in diesem Buch detailliert beschrieben und durch praktische Python-Implementierungen veranschaulicht, die in der Regel auf der Verwendung der Bibliotheken pytorch und tensorflow basieren.