Que nous soyons face à l’écran de notre téléphone ou que nous suivions les débats dans les médias, nous pouvons avoir l’impression de ne rien pouvoir faire face à la déferlante de problèmes qui semblent liés aux réseaux sociaux. Parfois au point de nous demander si ce n’était pas mieux avant. Avant les réseaux sociaux, avant le smartphone, voire avant Internet. C’est ce que penseraient 77 % des 35-54 ans américains, d’après un récent sondage. Tout semble nous pousser à un certain fatalisme. D’un côté, les réseaux sociaux nous sont devenus indispensables pour nous informer, nous divertir ou échanger les un·s avec les autres. Et, de l’autre, nous serions démuni·es face à ces géants qui contrôlent nos vies jusqu’à nous déprimer ou jusqu’à laisser la voie libre aux harceleur·ses et agresseur·ses en tous genres. Mais la fin de l’histoire n’est pas écrite. La régulation à venir nous offre l’opportunité de transformer notre relation aux réseaux sociaux, si tant est que nous réussissions à assurer les conditions de son ouverture.

Depuis vingt-cinq ans, nous vivons avec des règles qui ont laissé les réseaux sociaux pour ainsi dire tranquilles. Que ce soit en droit américain (section 230 issue du Decency Act de 1996) ou en droit européen (article 14 de la directive européenne e-Commerce de 2001), les réseaux sociaux ne sont tenus responsables qu’à partir du moment où on les a informés de la publication de contenus manifestement illicites sur leur plateforme, que ce soit par le juge ou via le signalement par les utilisateur·rices ou autorités publiques. Tout le reste tombe dans une zone grise, d’où les réseaux sociaux retirent beaucoup de contenus de leur propre fait. Avec un ratio de 1 pour 20 entre le nombre de contenus signalés par les utilisateur·rices et le nombre de contenus retirés. Pour arriver à de tels résultats, les réseaux sociaux ont recours à de l’intelligence artificielle et à des modérateur·rices dont le rôle est aussi fondamental que difficile.

Envie d’avoir de nos nouvelles par mail ?

Du point de vue des réseaux sociaux, une énorme partie du travail est donc déjà faite. C’est ainsi que certains affichent par exemple des taux de prévalence de 0,02 %, ce qui signifie que sur 10 000 contenus visibles par l’utilisateur·rice, seuls 2 seraient problématiques. Mais, pour les autorités publiques et nombre d’internautes, beaucoup de contenus demeurent problématiques. Alors comment faire mieux ?

Un changement du rapport de force

L’Union européenne a adopté le 25 octobre 2022 le règlement européen sur les services numériques, dit Digital Services Act, un texte visant à accroître le contrôle opéré sur les réseaux sociaux. Selon ce nouveau règlement, les plus grands réseaux sociaux, aujourd’hui X (ex-Twitter), Instagram, Facebook, TikTok, etc., feront l’objet d’un contrôle des risques systémiques. C’est-à-dire qu’ils devront veiller à mettre tous les moyens nécessaires pour que leur plateforme ne soit pas à l’origine de quatre grandes catégories de risques identifiés et qui sont, à très gros traits : la circulation de contenus illicites, l’atteinte aux élections, l’atteinte aux droits, l’atteinte aux personnes. Depuis le 25 août 2023, les réseaux sociaux doivent justifier de manière régulière avoir mis en œuvre tous les moyens requis et se faire auditer à cette fin. Les autorités publiques, dont la Commission européenne au premier chef, pourront soumettre les réseaux sociaux récalcitrants à interrogatoire, les perquisitionner puis les sanctionner.

En cas de préjudice grave, il est même possible de rendre temporairement inaccessible le réseau social concerné. Bref, on change la nature du rapport de force. Là où la nature du rapport de force change le plus n’est pas tellement dans le fait d’équiper le gendarme d’un bâton. Ce qui est fondamental, et qu’il nous faut absolument cultiver, est la capacité de mobiliser la société civile et la recherche pour augmenter la qualité du contrôle.

Signaleurs de confiance et accès aux données

Côté société civile, certaines organisations, appelées « signaleurs de confiance », auront la capacité de signaler plus efficacement les contenus illicites qu’elles détectent. En plus d’accompagner les utilisateur·rices, elles nourriront le travail du régulateur par des rapports indiquant la différence entre ce qu’elles ont signalé et ce qui a été retiré par les plateformes.

En parallèle, un accès privilégié aux données détenues par les très grands réseaux sociaux sera accordé à des organismes de recherche agréés. Ils pourront mettre en exergue d’éventuelles défaillances dans le fonctionnement des réseaux ou, au contraire, rendre compte des solutions les plus appropriées. Leur contribution sera indispensable pour mieux comprendre le fonctionnement des réseaux et mieux saisir l’évolution de notre société.

Le succès de cette régulation avec la société dépend notamment de deux choses : d’une part, de la capacité des autorités publiques à animer ces collectifs et, d’autre part, de la capacité que nous avons à les financer. Probablement, tout cela demandera-t-il du temps et l’adoption d’autres règles pour aller plus loin. Ce ne sont pas les idées et l’envie des acteurs qui manquent. À nous de saisir la balle au bond. Le concept d’industrie 4.0.