Déconstruire les mythes de l’IA

Dans le numéro 18 de Chut Magazine, Jean Cattan et Hubert Guillaud nous invitaient à rouvrir les imaginaires de l’Intelligence artificielle et à interroger les mythologies dans lesquelles l’IA nous enferme. Pour nous libérer, il faut donc identifier ce que les discours autour de l’IA produisent, comment ils cadrent le récit de l’IA et enferment nos possibilités d’action, nous explique cette fois-ci Hubert Guillaud.
La technologie ne produit pas que des solutions, elle produit aussi beaucoup de promesses, d’imaginaires, d’idéologies et de mythes. Derrière le marketing des produits et des services, les entreprises déploient des métaphores simples et convaincantes qui réduisent la complexité des transformations à l’œuvre. « Ils pollinisent l’imagination sociale avec des métaphores qui mènent à des conclusions, et ces conclusions façonnent une compréhension collective » plus ou moins fidèle à la réalité. Les discours sur l’IA générative reposent donc sur de nombreux mythes et promesses, explique l’artiste et penseur de la technologie Eryk Salvaggio. Des mythes et des promesses qui produisent souvent une compréhension erronée du fonctionnement de l’IA et induisent en erreur ceux qui veulent les utiliser. Il faut déconstruire les représentations qui s’imposent à nous, décomposer les convictions que l’on fait siennes.
Qui contrôle ?
Le premier mythe de l’IA vise à nous faire croire que ces systèmes sont plus fiables qu’ils ne sont. C’est le mythe du contrôle, qui nous intime que tout fonctionne et que nous sommes en contrôle. Que les machines de l’IA produisent la vérité, depuis toutes les données qu’elles ont avalé, et que nous ne serons jamais nous-même en mesure d’avaler. Que leurs calculs seraient justes, quelles que soient leurs défaillances. Qu’elles seraient capables de prendre en compte tous les critères pour produire une gouvernance purement technique dont les modalités dépendraient uniquement de paramètres et de coefficients qu’il suffirait d’affiner. Une forme de gouvernance de fait, où tout le pouvoir résiderait dans les mains des ingénieur·es, sans avoir besoin d’adresser la société, c’est-à-dire ceux qui sont calculés et affectés par ces outils. L’éthique ne serait plus qu’une question de réglage, sans qu’elle ait à convoquer les humains qu’elle affecte, sans qu’elle ait à intégrer les « voix des gens dans le code ».
Cet imaginaire de la toute puissance se décompose en plusieurs représentations et figures omniprésentes dans les discours tenus sur l’IA. La principale est certainement le mythe de la productivité, qui nous répète que ces systèmes nous font gagner du temps. « Le mythe de la productivité suggère que tout ce à quoi nous passons du temps peut être automatisé », explique Eryk Salvaggio. L’écriture se réduit à un moyen pour remplir une page plutôt qu’un processus de réflexion – oubliant qu’elle est l’activité essentielle de la réflexion, qu’elle permet de construire la pensée et pas seulement des résultats. La rhétorique de l’IA répète qu’elle va améliorer l’efficacité du travail et automatiser les tâches fastidieuses, dans tous les secteurs, du service client aux diagnostics médicaux. En réalité, son impact sur le travail est plus ambivalent et beaucoup moins magique, rappellent les chercheuses et Alexandra Mateescu. Si l’IA affecte le travail, si elle est souvent mobilisée dans une perspective de réduction des coûts ou des délais de productions, elle se présente sous la forme d’assistants qui viendraient nous aider à tenir ces objectifs. Alors qu’en fait, elle tient bien plus de contrôleurs. Elle se déploie activement dans les outils de planification de personnels dans le commerce de détail, la logistique ou la santé qui optimisent des pratiques de sous-effectifs ou d’externalisation permettant de maximiser les profits tout en dégradant les conditions de travail. Elle vise bien plus à standardiser et intensifier le travail, à renforcer l’asymétrie de pouvoir à l’œuvre qu’à donner du pouvoir aux employés.
Le mythe du contrôle est pleinement actif également dans celui du prompt. Depuis la fenêtre de discussion, on nous donne l’impression que nous aurions un contrôle important sur ces systèmes, nous faisant oublier que très souvent, nos mots mêmes sont modifiés avant d’atteindre le modèle, via des filtres qui vont transformer nos invites elles-mêmes. D’où l’incessant travail à les peaufiner pour améliorer le résultat. « Le mythe de l’invite permet de masquer le contrôle que le système exerce sur l’utilisateur en suggérant que l’utilisateur contrôle le système », explique encore Eryk Salvaggio.
Qui est le plus intelligent ? Moi ou l’IA ?
Un autre mythe est tout entier enfermé dans les ambiguïtés même du terme d’Intelligence artificielle. Le mythe de l’intelligence confond le fait que le développement des systèmes d’IA aient été inspirés par des idées sur le fonctionnement de la pensée avec la capacité à penser. Comme le dénonce la philosophe Anne Alombert, on nous répète que ces systèmes pensent, raisonnent, sont intelligents… suggérant également qu’ils devraient être libres d’apprendre comme nous le sommes, pour mieux faire oublier que leur apprentissage repose bien plus sur un vol massif de données que sur une capacité à apprendre.
Parmi les mythes de l’intelligence, on trouve donc d’abord le mythe de l’apprentissage. Mais cette métaphore de l’apprentissage elle aussi nous induit en erreur. Ces modèles n’apprennent pas. Ils sont surtout le produit de l’analyse de données. Un modèle n’évolue pas par sélection naturelle : il est optimisé pour un ensemble de conditions dans lesquelles des motifs spécifiques sont renforcés. Ce n’est pas l’IA qui collecte des données pour en tirer des enseignements, mais les entreprises qui collectent des données puis optimisent des modèles pour produire des représentations de ces données à des fins lucratives. Le mythe de l’apprentissage vise à produire une équivalence entre les systèmes informatiques et la façon dont nous-mêmes apprenons, alors que les deux sont profondément différents et n’ont pas la même portée ni la même valeur sociale. Le mythe de l’apprentissage permet surtout de minimiser la valeur des données sans lesquelles ces systèmes n’existent pas.
Le mythe de la créativité fait lui aussi partie du mythe de l’intelligence. Il entretient une confusion entre le processus créatif et les résultats créatifs. Si les artistes peuvent être créatifs avec des produits d’IA, les systèmes d’IA génératifs, eux, ne sont pas créatifs : ils ne peuvent pas s’écarter des processus qui leurs sont assignés, hormis collisions accidentelles. Le mythe de la créativité de l’IA la redéfinit comme un processus strict qui relèverait d’une série d’étapes, une méthode de production. Il confond le processus de créativité avec le produit de la créativité. Et là encore, cette confusion permet de suggérer que le modèle devrait avoir des droits similaires à ceux des humains au prétexte de sa créativité.
La magie est toujours pour demain !
Eryk Salvaggio distingue une troisième classe de mythes : les mythes futuristes qui visent à produire un agenda d’innovation. Ils spéculent sur l’avenir pour mieux invisibiliser les défis du présent, en affirmant continûment que les problèmes seront résolus. Ils renvoient toujours la solution à demain.
Dans ces mythes du futur, il y a d’abord le mythe du passage à l’échelle ou de l’évolutivité : les problèmes de l’IA seront résolus : avec plus de données, plus de calculs, plus de traitements… Mais ce n’est pas en accumulant plus de données biaisées que nous produiront moins de résultats biaisés. L’augmentation du volume des données permet surtout des améliorations incrémentales et limitées, bien loin de la promesse d’une quelconque intelligence générale. Aujourd’hui, les avantages semblent aller surtout vers des modèles plus petits mais reposant sur des données plus organisées et mieux préparées. Le mythe de l’évolutivité a lui aussi pour fonction d’agir sur le marché, il permet de suggérer que pour s’accomplir, l’IA ne doit pas être entravée dans sa course aux données. Il permet de mobiliser les financements comme les ressources… sans limites. Oubliant que plus les systèmes seront volumineux, plus ils seront opaques et pourront échapper aux réglementations.
Un autre mythe du futur est le mythe du comportement émergent, c’est-à-dire la promesse que ces systèmes statistiques puissent devenir intelligents. Mais qu’est-ce qui conduit à un comportement émergent ? « Est-ce la collecte de grandes quantités d’écrits qui conduit à une surperintelligence ? Ou est-ce plutôt la conséquence de la précipitation à intégrer divers systèmes d’IA dans des tâches de prise de décision pour lesquelles ils ne sont pas adaptés ? » Les risques de l’IA ne reposent pas sur le fait qu’elles deviennent des machines pensantes, mais peut-être bien plus sur le fait qu’elles deviennent des machines agissantes, dans des chaînes de décisions défaillantes, comme le promet déjà l’IA agentique et le slopware, ces logiciels autoproduits par des IA qui codent.
« CE QUE MASQUE LE TERME DE BOÎTE NOIRE; CE NE SONT PAS DES ALGORITHMES OPAQUES, MAIS DES CHOIX DE CONCEPTION : DES DÉCISIONS CONSCIENTES QUANT AUX OBJECTIFS À PRIVILÉGIER, AUX SOURCES DE DONNÉES À UTILISER ET AUX MESURES DE SÉCURITÉ À METTRE EN PLACE. »
Mettre les mythes à distance
Eryk Salvaggio plaide pour que nous remettions en question ces mythes : « Nous devons travailler ensemble pour créer une compréhension plus rigoureuse de ce que ces technologies font (et ne font pas) plutôt que d’élaborer des déclarations de valeur (et des lois) qui adhèrent aux fictions des entreprises ».
Mais, c’est peut-être oublier un peu rapidement la valeur des mythes et des promesses technologiques. Les mythes de l’IA visent à produire non seulement une perception confuse de leur réalité, mais à influer sur les transformations légales. Les promesses et les mythes participent d’un narratif pour faire évoluer le droit en imposant un récit qui légitime le pouvoir perturbateur de la technologie. Les mythes permettent de crédibiliser les technologies, expliquait déjà le chercheur Marc Audetat dans Sciences et technologies émergentes : pourquoi tant de promesses ?. Comme le disait l’ingénieur Pierre-Benoît Joly dans ces pages, « les promesses technoscientifiques ont pour fonction de créer un état de nécessité qui permet de cacher des intérêts particuliers ». Les mythes et les croyances de l’IA ont d’abord et avant tout pour fonction de produire le pouvoir de l’IA et de celles et ceux qui la déploient.
Cette distance entre les promesses et la réalité ne tiendrait-elle pas elle-même d’un mythe ? Celui de la boîte noire ! Celui d’une technologie foncièrement complexe, inintelligible aux chercheurs eux-mêmes, où l’intrication des systèmes entre eux empêcherait la compréhension même. Le problème de la boîte noire n’est pourtant pas qu’un problème de compréhension, de complexité et d’opacité technique. Il traduit également l’enjeu de concentration de pouvoir qui obscurcit la façon même dont les décisions sont prises dans les systèmes socio-techniques. Ce que masque le terme de boîte noire, ce ne sont pas des algorithmes opaques, mais des choix de conception : des décisions conscientes quant aux objectifs à privilégier, aux sources de données à utiliser et aux mesures de sécurité à mettre en place. Derrière le manque de contrôle des créateur·trices sur leurs créatures, le fantasme promet l’arrivée de la superintelligence, quand le manque de contrôle rend surtout la technologie médiocre, faillible, faite de listes de contraintes et de réglages cachées aux utilisateurs.
Ce que le mythe de la boîte noire facilite finalement c’est de dissimuler la responsabilité et la redevabilité que les calculs doivent à ceux qui sont calculés. Le mythe de la boîte noire de l’IA entretient une confusion utile quant à ce qui peut et ne peut pas être connu. Il contribue à rendre ces systèmes plus mystérieux, voire plus sublimes, qu’ils ne le sont en réalité. Il alimente le mythe d’un risque existentiel, d’une machine qui prendrait le pouvoir seule, quand ce sont d’abord ceux qui les produisent qui prennent le pouvoir.
L’enjeu à ouvrir les boîtes noires et l’IA elle-même reste entier pourtant. L’enjeu n’est pas de connaître chaque paramètre de l’IA, mais de doter l’utilisateur·trice d’outils lui permettant de comprendre comment il est calculé, de connaître le niveau de fiabilité des réponses qui lui sont apportées. Défaire le mythe de la boîte noire consiste à nous aider à éclairer sa fiabilité, à nous aider à nous opposer au déploiement de l’IA là où la fiabilité est primordiale, là où la redevabilité et l’opposabilité sont essentielles. C’est-à-dire partout où nous avons à faire société.





