Défiler vers le haut

Licence Creative Commons "Approches ensemblistes pour mitiger la discrimination en l'intelligence artificielle", par Guilherme Alves - MT180s 2021

25 mars 2021
Durée : 00:03:28
Nombre de vues 7
Nombre d’ajouts dans une liste de lecture 1
Nombre de favoris 0

L’intelligence artificielle reproduit les biais des données avec lesquelles elle se construit : misogynie, racisme, xénophobie. Mettre en place des garde-fous garantit un traitement équitable des informations sensibles.

Guilherme Alves présente ainsi la problématique de sa thèse "Approches ensemblistes pour mitiger la discrimination en l'intelligence artificielle" lors de l'édition 2021 du concours "Ma thèse en 180 secondes".

Il mène alors ses recherches au sein du Laboratoire lorrain de recherche en informatique et ses applications – Loria (CNRS, Inria, Université de Lorraine).

Mots clés : analyse de donnees donnees sensibles equite inegalite intelligence artificielle jugement logiciels performance problemes societaux

 Informations