Responsabilité, explicabilités et valeurs de l'IA

Table ronde Recherche
le  27 avril 2021À distance
Table ronde organisée et animée par Alexandre Bretel (IPhiG & LIP6)

Que ce soit avec la reconnaissance faciale, la conduite autonome ou le traitement des données médicales des patients, la notion de responsabilité en intelligence artificielle mérite d’être discutée voir redéfinie. Cette notion de responsabilité est accompagnée par celle de l’explicabilité. Les conclusions des algorithmes en apprentissage automatique sont loin de pouvoir être complètement expliquées à l’heure actuelle.
C’est un domaine de recherche à part entière en informatique, menant à se questionner sur la notion même d’explication. Les valeurs portées par l’éthique de l’intelligence artificielle seront également interrogées, pour comprendre ce qui se cache réellement derrière les appels à davantage de transparence ou d’équité. Ces échanges auront lieu au cours d’une table-ronde qui accueillera Éric Gaussier, Emmanuel Goffi et Ysens de France.

 

Biographie :

  • Éric Gaussier est professeur d’informatique à l’Université Grenoble Alpes. Il est titulaire d’une licence en mathématiques appliquées de l’École Centrale Paris et d’une thèse en informatique de l’Université de Paris 7. Coordinateur du projet MIAI, il est le directeur de l’Institut MIAI@Grenoble Alpes.
  • Emmanuel Goffi est un éthicien et un spécialiste des relations internationales, co-directeur du Global AI Ethics Institute à Paris et chercheur associé au Big Data Lab de la Goethe Universität à Francfort. Il est également diplômé de l’École de l’Air et de Sciences-Po Paris.
  • Ysens de France est docteure en droit de l’IA, spécialisée en robotique militaire. Elle est également directrice de la prospective de l’Institut Sapiens, co-responsable des observatoires éthique & IA et développement durable. Elle est aussi professeure à Aivancity School for Technology, Business & Society à Paris-Cachan.
Publié le  15 avril 2021
Mis à jour le  15 avril 2021