Fairness de l’IA - Peut-on créer un algorithme sans biais ?

« Le concept de fairness renvoie à la qualité idéale de l’algorithme qui est celui de ne pas être à l'origine de décisions discriminatoires ».

On laisse aujourd’hui à des intelligences artificielles la responsabilité d’accorder un prêt bancaire, de sélectionner une candidature, ou même de juger un délit. Mais puisque ce sont des humains qui l'ont créé, comment s'assurer qu'un algorithme a été conçu sans biais ?

Les intelligences artificielles se nourrissent de données socio-économiques issues d’une société qui, elle-même, n’est pas égalitaire. L’IA est-elle condamnée à reproduire ces inégalités ? Comment la loi peut-elle contrôler ces biais algorithmiques ?


Dans ce 6e épisode d’Ex Machina, le journaliste Eric Nahon reçoit : 

- Olivia Tambou, maître de conférences en droit européen et membre du Centre de Recherche en Droit Dauphine (CR2D), qui s’intéresse à l’encadrement éthique et juridique des données qui nourrissent les IA 

- Thierry Kirat, directeur de recherche au CNRS en sociologie et membre de l’institut de recherche en sciences sociales de l’Université Paris Dauphine – PSL (IRISSO). Ses recherches portent sur les enjeux juridiques et sociaux de l'intelligence artificielle. 

 

Ex Machina est un podcast préparé par "Dauphine Numérique", un projet de recherche transversal de l’Université Paris Dauphine – PSL qui développe une approche réflexive de l’IA, ses modalités, ses usages et ses effets.



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.