50,99 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 6-10 Tagen
  • Broschiertes Buch

Ce manuscrit porte sur les méthodes de soustraction de fond pour la détection d'objets mobiles dans des séquences vidéos acquises par des caméras fixes dans des conditions non-contrôlées. Bien que cette étape peut ne pas être nécessaire dans certaines applications, elle se révèle souvent très utile et très utilisée pour distinguer et séparer le fond et les objets mobiles dans des images vidéo d'applications comme la vidéo-surveillance, la capture de mouvement optique et d'autres applications du domaine multimédia. Durant la dernière décennie, on recense un nombre important de publications…mehr

Produktbeschreibung
Ce manuscrit porte sur les méthodes de soustraction de fond pour la détection d'objets mobiles dans des séquences vidéos acquises par des caméras fixes dans des conditions non-contrôlées. Bien que cette étape peut ne pas être nécessaire dans certaines applications, elle se révèle souvent très utile et très utilisée pour distinguer et séparer le fond et les objets mobiles dans des images vidéo d'applications comme la vidéo-surveillance, la capture de mouvement optique et d'autres applications du domaine multimédia. Durant la dernière décennie, on recense un nombre important de publications présentant des méthodes spécifiques pour des applications spécifiques. Dans ce contexte, ce livre présente un état de l'art systématique du domaine tant sur certaines catégories de modèles que des sous-catégories. Ensuite, des pistes nouvelles sont présentées afin de développer des méthodes robustes aux challenges importants du domaine comme les fonds dynamiques et les variations lumineuses.
Autorenporträt
Thierry Bouwmans est Maître de Conférence (HDR) à l'Université de La Rochelle au sein du Laboratoire MIA. Sa recherche concerne principalement la détection des objets mobiles dans des vidéos acquises par caméras fixes dans des environnements où les conditions sont non contrôlées dans le cadre d'application comme la vidéosurveillance.