52,99 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 6-10 Tagen
payback
26 °P sammeln
  • Broschiertes Buch

Dans cette thèse, nous proposons un nouvel algorithme de séparation aveugle de sources, basé sur l'optimisation de l'information mutuelle sous contraintes. Le problème d'optimisation sous contraintes est résolu par passage au problème dual. L'estimateur proposé du gradient stochastique utilise l'estimation des densités par maximum de vraisemblance dans des modèles de lois exponentielles choisis par minimisation du critère AIC. Ensuite, la méthode a été généralisée à l'ensemble des divergences entre densités de probabilité. Nous avons montré que l'algorithme utilisant la divergence particulière…mehr

Produktbeschreibung
Dans cette thèse, nous proposons un nouvel algorithme de séparation aveugle de sources, basé sur l'optimisation de l'information mutuelle sous contraintes. Le problème d'optimisation sous contraintes est résolu par passage au problème dual. L'estimateur proposé du gradient stochastique utilise l'estimation des densités par maximum de vraisemblance dans des modèles de lois exponentielles choisis par minimisation du critère AIC. Ensuite, la méthode a été généralisée à l'ensemble des divergences entre densités de probabilité. Nous avons montré que l'algorithme utilisant la divergence particulière de Hellinger a de bonnes propriétés d'effcacité et robustesse en présence du bruit en comparaison avec l'information mutuelle. Dans le cadre de signaux cyclostationnaires, les méthodes précédentes de séparation ont été adaptées en utilisant des statistiques du second ordre. Nous illustrons les performances des algorithmes proposés pour des signaux simulés et pour des signaux réels issus de machines tournantes.
Autorenporträt
Né le 13/12/1974 à Nouakchott (Mauritanie). Il est docteur en Génie Informatique, Automatique et Traitement du Signal du laboratoire CReSTIC de l'université de Reims Champagne-Ardenne. Il travaille sur le développement de méthodes statistiques et numériques pour résoudre des problèmes inverses.