Le 30 novembre 2022, OpenAI rendait accessible au grand public un nouvel outil numérique, dénommé ChatGPT. Ce dispositif se présentait aux utilisateur·rices comme un « agent conversationnel » leur permettant de poser des questions ou de donner des consignes à la machine, afin de générer automatiquement des textes, grâce à un système d’ « intelligence artificielle » effectuant des calculs algorithmiques sur des quantités massives de données. Dès sa sortie, ChatGPT a ainsi suscité l’euphorie la plus vive tout comme les inquiétudes les plus prononcées.

Les notions mêmes d’« intelligence artificielle » ou d’« agent conversationnel », couramment employées pour décrire ce type de dispositifs, tendent à accréditer l’hypothèse d’un remplacement des esprits humains par les automates numériques. Métaphores anthropomorphiques, ces formules suggèrent que les machines seraient dotées d’intelligence ou d’agentivité, certains allant même jusqu’à prévoir l’avènement de machines conscientes.

Or, les modèles de langage artificiels du type de GPT ne constituent pas des agents intelligents mais des technologies de calcul extrêmement performantes, qui permettent de générer des suites de mots probables à partir de données analysées statistiquement. Si les textes générés par ChatGPT ressemblent tant à des textes humainement rédigés, c’est parce que les algorithmes ont été entraînés sur d’immenses bases de données constituées de multiples textes écrits, évalués et certifiés par des individus.

Une question de confiance

L’entreprise OpenAI, propriétaire de ChatGPT, n’a pas révélé l’intégralité des contenus qui constituent ses bases de données, mais l’on sait néanmoins que le modèle de langage s’appuie en grande partie sur les textes de l’encyclopédie collaborative Wikipédia. Or, les textes figurant sur les pages Wikipédia n’ont pas été produits de la même manière que les textes générés par ChatGPT. Ils proviennent de contributions singulières, certifiées par différents pairs à travers des processus d’interprétation, d’évaluation et de délibération collectifs donnant aux contenus de l’encyclopédie collaborative leur fiabilité et leur crédit. À des exceptions près, les lecteur·rices peuvent accorder leur crédit aux textes produits, car ceux-ci sont les fruits de controverses et de consensus laborieusement établis.

Les textes de ChatGPT, à l’inverse, sont issus de calculs probabilistes : les suites de mots les plus probables sont aussi les suites de mots les plus répandues. Ils renforcent donc les tendances dominantes, tout en éliminant les expressions idiomatiques ou inattendues. Par ailleurs, n’étant pas évalués par une quelconque communauté, les textes automatiquement générés peuvent véhiculer de fausses informations dans un langage très vraisemblable et très standardisé. Mélangées aux vraies, celles-ci deviennent alors plus difficiles à discerner. D’ici quelques années, la majorité des textes figurant sur le web auront été générés par ce type de modèles de langage automatisés. Sera-t-il encore possible de faire confiance aux contenus reçus ? Les systèmes de génération automatique de contenus présentent des risques considérables en termes de simulation et de falsification.

Envie d’avoir de nos nouvelles par mail ?

Asservissement programmé

Les enjeux de ChatGPT dépassent donc la question de savoir si les élèves pourront ou non plus facilement tricher. De plus, une telle question présuppose que les individus constituent les utilisateur·rices de ces systèmes. Or, force est de constater que ce sont plutôt ces systèmes qui semblent nous utiliser. Nous croyons nous servir de ChatGPT, alors que nous participons ainsi à entraîner le modèle, qui se perfectionne au fur et à mesure des usages effectués.

Ces industries linguistiques affectent en profondeur nos capacités de pensée. Lorsque nous demandons à ChatGPT de générer automatiquement un texte, nous lui déléguons nos facultés de mémoire, de synthèse, de réflexion et d’imagination. Écrire un texte suppose de se remémorer les souvenirs de certaines lectures, de sélectionner parmi les idées, de réfléchir au sens à produire et d’imaginer le public auquel le texte se destine. En nous reposant sur des automates algorithmiques, nous risquons de cesser d’exercer ces facultés, c’est-à-dire, de désapprendre à écrire et à penser.

En nous reposant sur des automates, nous risquons de désapprendre à écrire et à penser.

Depuis l’opération marketing planétaire d’OpenAI, une véritable course à l’innovation s’est instaurée entre les géants de la Silicon Valley. Or, il n’est pas certain que les « large langage models » constituent des innovations à prioriser. Onéreuses et coûteuses du point de vue énergétique, elles semblent s’imposer dans les sociétés indépendamment de tout débat. Extrêmement faciles d’utilisation, elles risquent néanmoins d’engendrer un processus de prolétarisation, en dépossédant les individus de leurs capacités. Une technologie ne peut, en effet, devenir bénéfique que si celles et ceux qui la pratiquent en comprennent le fonctionnement et les enjeux, sans quoi, les utilisateur·rices deviennent des consommateur·rices passif·ves asservi·es au dispositif.

À l’inverse, le numérique rend possible toutes sortes de plateformes collaboratives et contributives permettant l’annotation, l’écriture et la controverse collective et dont les fonctionnalités favorisent l’interprétation, la réflexion et l’expression des singularités. Là où les technologies audiovisuelles maintenaient les spectateur·rices dans une position de récepteur·rices, les technologies numériques peuvent leur permettre de participer à la constitution des savoirs publics (sous forme d’articles, de blogs, de sites, de vidéos, de podcasts, etc.) et ouvrent des possibilités de participation qui vont bien au-delà du « like » ou du « follow ». Ce sont ces types de pratiques numériques, à la fois créatives et cultivées, qui devraient constituer le coeur de l’éducation aux médias, afin de développer l’imaginaire technologique des jeunes générations, qui risque désormais de se limiter aux dangereuses prouesses de ChatGPT. Plutôt que de s’interroger sur l’intelligence artificielle des machines, il conviendrait aujourd’hui de mettre les supports numériques au service de l’intelligence collective.