29,99 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 6-10 Tagen
  • Broschiertes Buch

Cet ouvrage représente un premier pas vers l'apprentissage automatique embarqué. Il présente les techniques d'optimisation et de compression des modèles d'apprentissage profond. Ces techniques permettent de faciliter le déploiement d'un modèle deep learning performant et léger sur des équipements à ressources limitées comme les smartphones et les micro-contrôleurs. Ce document explore également une technique de transfert de connaissances d'actualité, à savoir la distillation de connaissances. Cette technique permet d'améliorer les performances d'un modèle deep learning léger, tout en lui…mehr

Produktbeschreibung
Cet ouvrage représente un premier pas vers l'apprentissage automatique embarqué. Il présente les techniques d'optimisation et de compression des modèles d'apprentissage profond. Ces techniques permettent de faciliter le déploiement d'un modèle deep learning performant et léger sur des équipements à ressources limitées comme les smartphones et les micro-contrôleurs. Ce document explore également une technique de transfert de connaissances d'actualité, à savoir la distillation de connaissances. Cette technique permet d'améliorer les performances d'un modèle deep learning léger, tout en lui transférant les connaissances d'un modèle deep learning complexe et performant. Toutes ces techniques ont été détaillées dans ce livre et illustrées par des implémentations Python pratiques, basées généralement sur l'utilisation des librairies pytorch et tensorflow.
Autorenporträt
Afef Mdhaffar a obtenu son doctorat en informatique en 2014 de l'Université de Marburg, en Allemagne. Actuellement, elle occupe le poste de maître-assistante en informatique à l'École Nationale d'Ingénieurs de Sfax (ENIS), en Tunisie. Ses travaux se concentrent actuellement sur les techniques d'optimisation des modèles deep learning.