Un terreau pour la désinformation

En 2024, une étude menée en Nouvelle-Aquitaine révèle que 90 % des élèves de seconde utilisent l’IA générative pour faire leurs devoirs. Selon une enquête de YouthAI et YouGov, 47 % des 1 017 adolescent·es américain·es interrogés ont déclaré utiliser des outils d’IA tels que ChatGPT plusieurs fois par semaine. Au-delà des solutions dédiées, l’IA générative est déjà intégrée dans des outils éducatifs, des plateformes sociales ou encore des jeux interactifs.

Or 59 % des adolescents interrogés par YouthAI et YouGov disent également être préoccupés par la désinformation ; soit la diffusion volontaire de fausses informations (textes, vidéos, sons, faux comptes d’utilisateurs·trices, etc.) dans l’objectif de tromper ou de manipuler une opinion. Si ce phénomène n’est pas nouveau, il est désormais amplifié et à la portée de tous : alors que l’IA générative permet la création sans prérequis et compétences techniques de faux contenus (textes, visuels), les réseaux sociaux et leurs chaînes de contagion, comme les nomment le sociologue Dominique Boullier, permettent leur propagation à une vitesse vertigineuse.

Envie d’avoir de nos nouvelles par mail ?

Les dangers des deepfakes à caractère pornographique

L’étude susmentionnée révèle également qu’un enfant sur dix aux États-Unis déclare que ses ami·es utilisent l’IA générative pour générer des deepfakes à caractère pornographique. Si ces pratiques existent depuis 2017, elles explosent : 96 % des deepfakes en ligne seraient aujourd’hui à caractère pornographique. La nouveauté réside en partie dans la possibilité de créer ces contenus ex nihilo, soit sans images préexistantes servant à un montage (par exemple mettre le visage d’une personne sur un corps dénudé d’une autre personne) ; même si la génération d’images se nourrit fondamentalement de banques d’images.

Dans le cas de la pédopornographie, cela pourrait être vu comme la possibilité d’une « absence de victime directe », puisque les contenus produits peuvent être totalement artificiels. Or, ces créations ne diminuent pas leur danger. En octobre 2024, la Fondation pour l’enfance rappelle ainsi que 52 % des consommateurs de contenus pédocriminels considèrent que « leur usage pourrait aboutir à une agression sur un enfant ».

Trois axes de réponse possibles

Les solutions existent depuis de nombreuses années pour sensibiliser, protéger, éduquer ou encore interdire, mais elles nécessitent toutes des moyens et une mise en oeuvre renforcés. Nous en évoquerons trois ici.

D’abord, il est urgent de repenser les programmes scolaires. En France, le socle commun de connaissances et de compétences pour les 6-16 ans inclut déjà l’accès à l’information et aux outils numériques, mais son contenu est largement insuffisant. Par ailleurs, si le cadre européen des compétences numériques (DigComp) prévoit une mise à jour pour inclure l’IA générative, les échéances restent floues. Il ne s’agit pas de former les plus jeunes à « faire de l’IA », mais bien de leur permettre de développer un sens critique, pour évoluer dans un environnement informationnel en constante évolution. L’urgence, face aux transformations rapides de notre quotidien numérisé, appelle une prise de conscience et des actions rapides pour repenser les programmes scolaires. Ni les journées, ni les moyens ne sont extensibles : il est temps de considérer que ces enjeux nécessitent une discussion avec l’ensemble des parties prenantes pour élaborer une nouvelle priorisation et une hiérarchisation des matières enseignées.

Ensuite, l’éducation ne se faisant pas seulement à l’école, les familles doivent être accompagnées dans l’apprentissage d’une « parentalité numérique » pour guider les enfants hors du cadre scolaire, et les activités extrascolaires doivent être soutenues.

Enfin, à l’heure où l’Europe a consolidé son appareil réglementaire sur de nombreux aspects relatifs au numérique, nous avons besoin d’actions politiques et juridiques fortes. Le renforcement de la collaboration avec les acteurs du numérique concernés, afin de faciliter le retrait des contenus ciblés le plus rapidement et le plus facilement possible, est également une condition de cette réussite.

Il est impératif que les adultes prennent (enfin) la pleine mesure de leur responsabilité collective sur ce sujet, pour bâtir un environnement numérique sûr et adapté aux générations futures.