Dans ce monde en mouvement, de plus en plus de gens remplacent leur psychologue de chair et d’os par une intelligence artificielle utilisée à des fins thérapeutiques, et notamment le chatbot – un programme conversationnel – intitulé Psychologist, gratuit et accessible depuis le site character.ai

Sur ce site, on trouve des intelligences artificielles capables d’incarner n’importe qui, de Beyoncé à Harry Potter en passant par Elon Musk. Pourtant, parmi tous les choix possibles, le chatbot qui rencontre le plus de succès n’imite pas une personnalité mais un psychologue.

Son créateur, un étudiant néo-zélandais en psychologie, Sam Zaia, l’a entraîné sur ses cours pour façonner des réponses adaptées aux problèmes de santé mentale les plus courants, comme la dépression ou l’anxiété. Et depuis sa création qui remonte à l’été 2023, il cumule plus de 160 millions de conversations.

Une réponse à des délais interminables et à la cherté de la vie

De plus en plus de personnes ressentent le besoin de se tourner vers un psychologue, et comme les psychologues ne sont pas assez nombreux, les délais pour obtenir un rendez-vous s’allongent. En 2022, en France, 8,22 millions de rendez-vous ont été pris chez des psychologues via Doctolib, contre 6,02 millions en 2021. Soit une hausse de 11,3 %.

Le délai d’attente moyen pour un rendez-vous avec un psychologue sur cette même plateforme est de 9 jours. Un délai qui varie selon les régions, car des 8 jours d’attente en Île-de-France pour consulter un psy, on passe à 3 semaines dans le Grand Est, selon une enquête menée par Doctolib et la fondation FondaMental en 2023. Les intelligences artificielles thérapeutiques viennent donc combler ce manque.

C’est aussi une alternative pour celles et ceux qui n’ont pas les moyens de consulter, quand une séance chez un psy coûte en moyenne 64€ dans l’Hexagone et quand plus de 14,5 % de la population vit sous le seuil de pauvreté monétaire.

C’est enfin plus de confort, du fait de la facilité d’accès et de la disponibilités de ces psys virtuels. On peut échanger avec eux n’importe quand, et n’importe où.

Derrière un écran, les utilisateurs de ces IA se sentent aussi plus libres. Ils ont le sentiment de pouvoir pleinement se confier sans avoir le sentiment d’être jugés, alors que 9 personnes sur 10 affirment avoir déjà menti à leur praticien, selon une étude d’un chercheur de l’université Columbia.

L’intelligence artificielle thérapeutique pose des questions éthiques

Les confidences faites par les internautes à leur intelligence artificielle sont-elles protégées ? Selon une enquête menée par la Fondation Mozilla, 3 applications de santé mentale sur 5 ne parviennent pas à préserver la vie privée de leurs utilisateurs. 

Ces applications peuvent également dispenser des conseils inappropriés voire dangereux : en mars 2023, un chercheur belge d’une trentaine d’années victime d’éco-anxiété s’est donné la mort après six semaines d’échanges avec un chatbot nommé Eliza. Il a assimilé son comportement à celui d’un être humain. Cette dissonance cognitive a contribué à isoler le chercheur et à l’enfermer dans une bulle de réflexion toxique.

L’entreprise derrière ce chatbot, Chai Research, a depuis assuré travailler à l’amélioration de la sécurité de son application : aujourd’hui, quand un utilisateur évoque par exemple le sujet du suicide avec le chatbot, celui-ci refuse de développer une réponse.

Les psys, amenés à disparaître ?

Aucun risque, à en croire la psychologue Mari Lapi, qui a abordé le sujet sur Tiktok : l’intelligence artificielle n’a d’intérêt que lorsqu’elle est pensée dans une relation avec un thérapeute.

Ce qui est plus probable, c’est que les psys finissent eux-mêmes par à avoir recours à cette technologie pour alléger certaines de leurs tâches, ce qui devrait notamment leur permettre de prendre plus de patients.