En 2022, vous avez reçu le Grand Prix Inria - Académie des sciences pour vos travaux sur la protection de la vie privée. Pourquoi vous êtes-vous intéressée à ce domaine ?

À partir du moment où j’ai intégré Inria, en 2002, j’ai commencé à m’intéresser aux questions de sécurité de la vie privée en m’aidant des méthodes probabilistes que j’utilisais dans de précédents travaux sur la théorie de la concurrence. Je suis une mathématicienne de coeur – j’ai étudié les sciences informatiques parce que je voulais trouver un travail le plus tôt possible (rires) – mais j’apprécie les théories qui ont des applications pratiques. Avec mes étudiantes et étudiants, nous avons donc commencé à utiliser la théorie des probabilités pour créer un système de protection différentielle de la vie privée, afin de masquer certaines informations sensibles, comme par exemple des données relatives à l’opinion politique ou la santé.

Envie d’avoir de nos nouvelles par mail ?

En quoi consiste le principe de géoindiscernabilité, qui vous a valu une reconnaissance internationale ?

L’idée est de « bruiter » les informations de localisation des utilisateurs et utilisatrices. Nous avons créé Location Guard, une extension compatible avec tous les navigateurs, qui permet d’obtenir des informations ou des recommandations sur des lieux où des établissements situés à proximité de soi sans révéler pour autant sa localisation précise.

Avec l’équipe-projet Comete, vous travaillez sur les biais algorithmiques de l’intelligence artificielle. Quel est votre objectif ?

Introduire plus d’éthique dans le machine learning. Quand on utilise des algorithmes prédictifs, il faut s’assurer que les données d’apprentissage ne sont pas biaisées, ce qui est loin d’être le cas. Aux États-Unis, par exemple, la justice s’appuie sur une application pour prédire les risques de récidive des personnes inculpées. Il a été prouvé que cet algorithme était très défavorable aux personnes afro-américaines. Avec mon équipe, nous participons à un travail de définition de ce que doit être l’équité dans l’apprentissage automatique.