Catuscia Palamidessi : « Nous travaillons à définir de ce que doit être l’équité dans l’apprentissage automatique »
Catuscia Palamidessi est chercheuse, spécialiste de la sécurisation et la protection des données, directrice de l’équipe-projet Comete au centre Inria de Saclay. En 2022 elle est lauréate du Grand Prix Inria de l’Académie des sciences.
En 2022, vous avez reçu le Grand Prix Inria - Académie des sciences pour vos travaux sur la protection de la vie privée. Pourquoi vous êtes-vous intéressée à ce domaine ?
À partir du moment où j’ai intégré Inria, en 2002, j’ai commencé à m’intéresser aux questions de sécurité de la vie privée en m’aidant des méthodes probabilistes que j’utilisais dans de précédents travaux sur la théorie de la concurrence. Je suis une mathématicienne de coeur – j’ai étudié les sciences informatiques parce que je voulais trouver un travail le plus tôt possible (rires) – mais j’apprécie les théories qui ont des applications pratiques. Avec mes étudiantes et étudiants, nous avons donc commencé à utiliser la théorie des probabilités pour créer un système de protection différentielle de la vie privée, afin de masquer certaines informations sensibles, comme par exemple des données relatives à l’opinion politique ou la santé.
En quoi consiste le principe de géoindiscernabilité, qui vous a valu une reconnaissance internationale ?
L’idée est de « bruiter » les informations de localisation des utilisateurs et utilisatrices. Nous avons créé Location Guard, une extension compatible avec tous les navigateurs, qui permet d’obtenir des informations ou des recommandations sur des lieux où des établissements situés à proximité de soi sans révéler pour autant sa localisation précise.
Avec l’équipe-projet Comete, vous travaillez sur les biais algorithmiques de l’intelligence artificielle. Quel est votre objectif ?
Introduire plus d’éthique dans le machine learning. Quand on utilise des algorithmes prédictifs, il faut s’assurer que les données d’apprentissage ne sont pas biaisées, ce qui est loin d’être le cas. Aux États-Unis, par exemple, la justice s’appuie sur une application pour prédire les risques de récidive des personnes inculpées. Il a été prouvé que cet algorithme était très défavorable aux personnes afro-américaines. Avec mon équipe, nous participons à un travail de définition de ce que doit être l’équité dans l’apprentissage automatique.
Ça vous plaira aussi
- Digital Ladies & Allies
Nelly Brossard : « L’écosystème tech n’est pas encore au rendez-vous »
- Digital Ladies & Allies
Merete Buljo : « Attention à la glamourisation »