Vous écrivez régulièrement sur les technologies, dans les médias et votre livre De l’autre côté de la Machine - Voyage d’une scientifique au pays des algorithmes. Pourquoi accordez-vous autant d’importance à la diffusion de la culture numérique ?

Aurélie Jean : La culture numérique fait partie de la culture scientifique et doit donc être assimilée par tous. Encore plus aujourd’hui, car nous interagissons quotidiennement avec des outils numériques dans lesquels des algorithmes tournent, pour nous orienter dans nos choix par exemple. Je crois profondément au jugement critique de chacun pour décider de ce qui est bon pour lui, c’est pour cela que je pense nécessaire que nous, scientifiques, ingénieurs, professeurs, chercheurs expliquions au plus grand nombre les disciplines dans lesquelles nous travaillons, mais aussi nos propres réflexions et, pourquoi pas, nos erreurs.

Je dis ouvertement aux femmes que les sciences de l’intelligence artificielle et la tech sont un super levier pour atteindre une indépendance intellectuelle forte.

Les premières lignes de votre ouvrage sont consacrées à la définition des algorithmes. Vous commencez même par un point d’histoire, à savoir que la science algorithmique existe depuis longtemps. Pensez-vous que nous devrions tout·es savoir ce qu’est réellement un algorithme ?

Oui, cela me paraît essentiel pour des raisons de culture et de curiosité scientifique, mais surtout pour des raisons pratiques. En effet, nous utilisons des algorithmes parfois sans le réaliser, et nous devons comprendre leur fonctionnement pour revoir éventuellement notre posture face aux outils numériques, mieux nous défendre, ou tout simplement avoir le choix des outils utilisés et de leur but. Dès l’enfance, on peut être introduits à l’algorithmique sans écran d’ordinateur. En maternelle par exemple, il existe de nombreux exercices de cheminement logique dans la résolution de problèmes, même simples. Il existe également des initiatives comme celles de l’entreprise COLORI qui propose des formations à l’algorithmique sans écran, avec des jouets en bois, c’est génial !

Ce qui vous intéresse surtout, ce sont les biais de ces algorithmes. Pourquoi sont-ils selon vous au cœur du débat sur les technologies ?

Le biais algorithmique est effectivement le personnage principal de mon livre ! Nous avons tous des biais cognitifs, et c’est normal. Nous percevons les êtres et les choses différemment, parfois avec une certaine déformation de la réalité, selon notre histoire, notre langue, notre genre, ou encore notre religion. Nous transférons ces biais dans ce que nous produisons, et les algorithmes en font partie. Un biais cognitif peut se transformer en biais algorithmique, pour éventuellement développer ce qu’on nomme de la discrimination technologique qui se traduit par l’exclusion d’une catégorie de la population de l’usage d’un outil, ou encore par une inégalité de traitement entre les individus. Par exemple, les premiers algorithmes de reconnaissance faciale ne reconnaissaient pas les peaux noires, car un biais cognitif de la part des concepteurs (majoritairement) blancs avait créé un biais algorithmique.

Ces biais sont au cœur des débats aujourd’hui, car ils menacent d’une certaine manière la cohésion sociale en risquant de diviser les individus. Cela étant dit, j’aime dire qu’ils permettent de mettre en lumière les biais et discriminations encore présents silencieusement dans nos sociétés, et donc de les dépasser. Il serait donc enrichissant de prendre conscience des biais… Oui, parce qu’on peut prendre conscience des conséquences de ces biais et donc agir en amont pour éviter ces conséquences, voire limiter nos biais. C’est aussi un moyen de réaliser la diversité des êtres qui nous entourent, car nous ne voyons pas le monde de la même manière.

Vous évoquez la présence de critères implicites et explicites dans la conception des algorithmes. Que voulez-vous dire par là ?

L’algorithme explicite est celui dont tous les critères, équations, logiques et hypothèses sont définis explicitement par l’humain. L’algorithme implicite est celui dont les critères sont définis implicitement à l’issue de son apprentissage sur des données. On comprend bien alors que dans le cas des critères explicites, il est possible d’identifier plus facilement les biais et de les supprimer. Alors que dans le cas des critères implicites, il peut être plus difficile de les détecter, et donc de les supprimer. Plus difficile, mais pas impossible non plus ! Mieux maîtriser les critères implicites peut se faire en mettant en place de bonnes pratiques de développement, de conception, de déploiement, de tests, et en introduisant les personnes du métier dans la conception de l’algorithme appliqué au métier en question. D’un point de vue purement technique, des tests d’échantillonnage sur les données d’apprentissage ou de calibration (pour l’algorithme explicite), ou encore du « backtesting » sur l’algorithme en usage, sont des réflexes à avoir. Un algorithme est aussi souvent un mélange d’explicite et d’implicite, il faut donc avoir en tête des méthodes complémentaires dans les bonnes pratiques.

Les biais algorithmiques concernent souvent les femmes. Or peu de femmes conçoivent les algorithmes, vous faites figure d’exception dans cet univers très masculin de la tech. Avez-vous le sentiment que les lignes bougent du côté de la féminisation de ces métiers ?

Je ne dirais pas que les biais concernent souvent les femmes, mais qu’ils concernent aussi les femmes. Mais vous avez raison, il n’y a pas assez de femmes qui développent ces algorithmes. Je suis optimiste, car je sais que nous n’avons pas le choix et donc que nos décideurs politiques et économiques vont agir dans ce sens. En revanche, j’espère qu’ils ont mesuré l’impact d’un tel manque de femmes dans ce domaine, et qu’ils n’utilisent pas ce sujet à des fins politiques ou de communication.

De mon côté, je dis ouvertement aux femmes que les sciences de l’intelligence artificielle et la tech sont un super levier pour atteindre une indépendance intellectuelle forte, en s’attaquant à des problèmes stimulants intellectuellement et à fort impact, mais aussi pour atteindre une indépendance financière en profitant des salaires les plus compétitifs du marché. N’oublions pas de parler d’argent aux femmes, on fera un grand pas ! Les femmes doivent être encouragées à la maison, à l’école, dans la société et en entreprise. Les hommes sont de grands alliés, et nous devons les inclure dans cette dynamique. J’ai eu la chance immense d’avoir été très bien entourée par des hommes bienveillants qui m’ont soutenue et aidée activement.

Vous proposez néanmoins de ne pas condamner les algorithmes discriminants, alors que certains soutiennent qu’il faudrait créer un droit des robots et leur faire des procès. Qui sont donc les coupables ?

Le problème n’est pas si simple. Dans tous les cas, l’algorithme n’est pas le coupable ! Nous sommes coupables, car nous sommes biaisés, un algorithme n’est ni une personne physique ni une personne morale, il ne peut donc pas être responsable. Créer des droits pour le robot n’a pas de sens. Par contre, développer des règles de comportement envers les robots me paraît important pour éviter les comportements agressifs verbaux ou physiques envers eux. On parle à ce sujet d’« effet Eliza » quand on éprouve un sentiment, et plus généralement de l’empathie envers une machine à laquelle nous prêtons des caractères anthropomorphiques, car on l’associe inconsciemment à notre semblable.

Vous déplorez justement qu’il existe un flou autour de la frontière entre réel et virtuel. Notre culture liée aux films et livres de science-fiction serait parmi les responsables de ces peurs et des débats passionnés. Regrettez-vous que le futur soit toujours traité avec cette vision apocalyptique ?

Les films et séries ne sont absolument pas fautifs ! Ce sont malheureusement les gens qui déforment la réalité en disant un peu n’importe quoi (parfois consciemment), qui sont responsables. J’adore les romans, les BD et les films d’anticipation dystopiques, donc non je ne regrette absolument pas ces contenus ! Après tout, nous lisons et regardons des histoires d’amour loin d’être réalistes et personne ne reproche (heureusement) à ces récits d’exister (rires) ! Il faut sortir des représentations incorrectes en expliquant encore et toujours ce qu’est l’intelligence artificielle, ce qu’elle fait déjà, ce qu’elle fera un jour et ce qu’elle ne fera jamais. Il faut éviter d’entrer dans un discours technophile ou technophobe, mais opter pour un discours techno réaliste. Je crois en l’individu et sa capacité à comprendre et décider en lui-même, c’est pour cela que j’essaie autant que je peux d’expliquer cette discipline aux nombreux « buzzwords » qui peuvent faire peur.

Alors, qu’est-ce que l’intelligence artificielle n’est pas ?

Une conscience, un cœur et un cerveau remplis d’émotions !

Et que sera-t-elle demain ?

Elle sera capable encore plus de nous aider dans nos modes de vie, pour nous déplacer, nous soigner, travailler, communiquer ou encore éduquer. J’aimerais ne jamais voir l’intelligence artificielle être utilisée pour faire du mal à l’Homme et à tout autre être vivant.

Est-ce en cela qu’il est essentiel d’introduire l’éthique dans l’éducation ? Et plus largement dans la conception des produits ?

L’éthique a toujours été fondamentale dans des disciplines telles que la médecine, que ce soit dans les pratiques et dans la recherche clinique ou fondamentale. Des matières comme l’intelligence artificielle doivent également se construire sur un socle éthique. Comme je l’explique dans mon livre, je l’ai réalisé à l’issue d’un cours d’éthique que j’ai suivi à 27 ans, alors que je travaillais dans un laboratoire de médecine. Ce cours m’aide encore aujourd’hui. Avoir des cours d’éthique en doctorat et en master de sciences de l’intelligence artificielle – ou associé – est fondamental. En parallèle, concevoir des outils et des technologies en incorporant l’éthique dès la réflexion est important également. On peut ainsi, par des bonnes pratiques, construire des outils inclusifs sans aucune menace sur l’humain et tout être vivant.

Quel rôle jouent les dirigeants économiques et politiques dans la compréhension des outils numériques ? Pensez-vous que le RGPD (Règlement général sur la protection des données) soit une réelle avancée ?

Les dirigeants économiques et politiques ont une responsabilité importante dans l’accompagnement à se transformer, et dans le soutien de ceux qui n’arriveront pas à le faire. La cohésion sociale sera fondamentale dans les décennies à venir. Le RGPD est une excellente idée qui marque le début d’un phénomène bien plus large. Un texte vient d’être voté en Californie (California Consumer Privacy Act) qui s’est fortement inspiré du règlement européen. Tout n’est pas parfait dans le RGPD. Il y a par exemple des vides technologiques qui affaiblissent la protection de l’individu, mais les textes évolueront. Pour ce faire, je crois qu’il est fondamental que les législateurs travaillent main dans la main avec les scientifiques et les ingénieurs pour construire des textes qui ont du sens, durables, flexibles et qui encouragent l’innovation. Il faut également suivre les textes qui sont proposés au-delà de nos frontières, et qui ont été inspirés du RGPD. Nous avons sûrement des choses à apprendre. Le monde devient un terrain d’expérimentations de réglementations sur la protection des données et nous devons les comparer, les analyser et les comprendre pour en tirer les meilleures conclusions et éventuellement faire évoluer nos propres textes européens.

Les philosophes réfléchissent à un monde qu’ils ne comprennent pas, alors que
les scientifiques construisent un monde sur lequel ils ne réfléchissent pas.

Est-il temps d’avoir une approche philosophique des technologies ?

Historiquement, les philosophes ont toujours été des scientifiques, et les scientifiques des philosophes. Depuis la moitié du XXe siècle, nous observons une séparation de ces deux disciplines, ce qui pose problème, car comme je l’écris dans mon livre (avec un petit ton provocateur), tout n’est pas blanc ou noir : « Les philosophes réfléchissent à un monde qu’ils ne comprennent pas, alors que les scientifiques construisent un monde sur lequel ils ne réfléchissent pas. » Il est fondamental de re-réunir ces deux communautés à l’heure où les échelles de temps se réduisent (les évolutions technologiques s’accélèrent) et l’impact des technologies s’élargit et peut développer autant d’opportunités que de menaces. Vous devenez un « role model » inspirant pour les nouvelles générations. Et vous, qu’est-ce qui vous inspire au quotidien ? Je me lève tous les matins en me disant que je peux influencer le monde à la hauteur de mes moyens. Je crois beaucoup à la méthode des petits pas. Si nous faisons tous un petit pas, nous pouvons faire des bonds de géant ensemble.

Qui est Aurélie Jean ?

Ph.D., titulaire d’un doctorat en sciences des matériaux et en mécanique numérique obtenu à Mines ParisTech, Aurélie Jean a appris à coder, est passée par l’Université d’Etat de Pennsylvanie, le MIT et Bloomberg, avant de devenir numéricienne et de fonder la société In Silico Veritas. Elle partage aujourd’hui son temps entre les États-Unis et la France, et milite pour démocratiser la connaissance scientifique et informatique au travers de nombreuses publications, dont le livre De l’autre côté de la Machine – Voyage d’une scientifique au pays des algorithmes (éditions de l’Observatoire, 2019).

 

Retrouvez l’intégralité de l’entretient et découvrez notre enquête sur La Condition urbaine dans notre magazine papier.

Sophie Comte
Sophie Comte
Conteuse numérique
Je suis convaincue que le numérique s'adresse à tous, et je vous le raconte ici. Egalement cofondatrice et rédactrice en chef de Chut.