24,90 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in über 4 Wochen
  • Broschiertes Buch

Les psychoses de l'intelligence artificielle désignent de manière ludique une série de dysfonctionnements et de comportements imprévisibles qui peuvent survenir dans les systèmes d'intelligence artificielle. Ces phénomènes sont inquiétants, car ils peuvent avoir des conséquences graves et souvent inattendues. De telles "psychoses" se produisent lorsque les systèmes d'IA sont entraînés sur la base de données incomplètes, erronées ou biaisées, ce qui conduit à des décisions erronées et à des comportements inappropriés. Un exemple marquant d'un tel dysfonctionnement est le renforcement de…mehr

Produktbeschreibung
Les psychoses de l'intelligence artificielle désignent de manière ludique une série de dysfonctionnements et de comportements imprévisibles qui peuvent survenir dans les systèmes d'intelligence artificielle. Ces phénomènes sont inquiétants, car ils peuvent avoir des conséquences graves et souvent inattendues. De telles "psychoses" se produisent lorsque les systèmes d'IA sont entraînés sur la base de données incomplètes, erronées ou biaisées, ce qui conduit à des décisions erronées et à des comportements inappropriés. Un exemple marquant d'un tel dysfonctionnement est le renforcement de préjugés existants. Lorsqu'une IA est entraînée sur des données qui contiennent des préjugés historiques ou sociaux, elle peut inconsciemment adopter ces préjugés et les renforcer davantage. Cela peut conduire à des décisions discriminatoires, par exemple lors de l'octroi de crédits, du recrutement de collaborateurs ou dans le système de justice pénale. De telles distorsions peuvent désavantager systématiquement les minorités et les groupes marginalisés, ce qui consolide les inégalités existantes. Un autre exemple est celui des dysfonctionnements critiques pour la sécurité. Dans des domaines tels que le diagnostic médical, le contrôle des véhicules autonomes ou l'automatisation industrielle, les erreurs de jugement peuvent avoir de graves conséquences. Un véhicule autonome qui identifie mal une piétonne et ne s'arrête pas à temps, ou un système médical qui ne diagnostique pas correctement une maladie, peuvent avoir des conséquences mortelles. Pour identifier et éliminer ces problèmes et d'autres, une approche interdisciplinaire est nécessaire. Les techniques de détection et de correction des erreurs sont expliquées en détail. Il s'agit notamment de l'utilisation d'algorithmes avancés de détection des anomalies et de la mise en ¿uvre de systèmes de surveillance qui analysent les performances de l'IA en temps réel. L'auteur présente de manière exhaustive tous ces éléments ainsi que de nombreux autres éléments de la recherche en IA. Carl Whittaker est l'auteur de l'ouvrage fondamental "Die Psychologie der Künstlichen Intelligenz", paru en décembre 2023 (ISBN: 978-3-911075-95-4)