Avec elle, les dérives potentielles des objets connectés s’intensifient, et le besoin de régulation se fait de plus en plus pressant. Très sensible aux questions de manipulation insidieuse (je co-dirige la chaire « Éthique et Nudge » à l’Université Paris-Saclay), je constate la prolifération du « nudge » (« coup de coude ») dans notre quotidien. Ces incitations, qui semblent innocentes ou bienveillantes, vous demandant si vous êtes certain·es de vouloir quitter le jeu à la fin d’une partie ou bien qui vous rappellent de prendre votre médicament, ont une utilité. Elles ne sont pas intrinsèquement malsaines, mais mal encadrées, elles peuvent présenter un risque social important, notamment concernant les publics vulnérables tels que les adolescent·es et les personnes âgées. À l’heure actuelle, cette manipulation subliminale est interdite dans un cadre commercial, lorsque le but de l’opération est de réaliser un profit, mais elle ne l’est pas sur les agents conversationnels. Comment vérifier que les industriels respectent bien cette interdiction ? Seules des normes bien établies peuvent répondre à la question.

Zones de gris

Les systèmes d’IA ne sont pas tous déterministes. En d’autres termes, nous ne pouvons pas anticiper les réponses qu’ils sont capables de produire. Pour mitiger les risques, nous devrions être en mesure de contrôler ces objets, de les monito-rer afin de s’assurer qu’ils remplissent bien la tâche qu’on leur a confiée. Pour l’instant, nous devons faire face aux zones de gris, et il y en a beaucoup. Ce qui va sembler être une incitation pernicieuse pour l’un·e ne va pas forcément l’être pour l’autre. Nous souhaitons élaborer un écosystème où le public peut faire remonter ses remarques, ses inquiétudes, ainsi que les erreurs qu’il relève. Mobilisons-nous pour faire advenir des études de fond sur la loyauté du système, pour avoir confiance en lui et anticiper les usages déviants.

Car si les progrès de l’IA peuvent tout à la fois effrayer, enthousiasmer ou surprendre, nous sommes encore loin de pouvoir nous reposer sur une IA de confiance. Cette IA éthique, encadrée et sécurisée ne pourra voir le jour qu’à travers une standardisation rigoureuse. Avec l’Artificial Intelligence Act, l’Europe tente d’avancer une vision européenne de l’IA et de légiférer sur la question. Cette standardisation a pour vocation de faire émerger une « soft law » capable d’encadrer les risques. À travers cette régulation, nous cherchons à acculturer la population européenne aux concepts liés à l’IA. Lors de la prescription d’un médicament, une posologie l’accompagne. C’est la même chose avec l’IA ! Le besoin d’éducation sur l’éthique du couple humain-machine est immense. J’appelle les organismes de recherche, les acteurs institutionnels et gouvernementaux à en prendre acte.