Découvrez Chut! Explore, le nouveau magazine de la rédaction en précommande sur KissKissBankBank

Une chronique Radio Nova x Chut! Magazine

Entre technolatrie et technophobie

ChatGPT fait toujours couler beaucoup d’encre, à tel point que certains souhaitent même que cela s’arrête. Il y a quelques mois, l’école Science Po a lancé les hostilités en l’interdisant dans l’enceinte de son école. En cause les craintes largement partagées dans le domaine de l’éducation au sujet de triche possible, de réelles fraudes ayant eu lieu dans un école lyonnaise. 

A présent, c’est un pays tout entier qui s’y met. La semaine dernière, le gouvernement italien annonçait l’interdiction de ChatGPT tout simplement dans le pays lui-même. La raison invoquée cette fois-ci par la CNIL italienne, c’est le non-respect de la protection des données personnelles, le fameux règlement européen RGPD. 

Peut-on s’attendre à la même chose en France ? Jean-Noël Barrot, ministre délégué chargé de la transition numérique et des télécommunications, a été formel. Il n’est pas question d’interdire les IA generative comme ChatGPT, Dall-e, Midjourney ou encore Bard. Il prône une voie du milieu qui ne penche ni du côté d’une technolâtrie ni en faveur d’une technophobie.

Et l'éthique dans tout ça ?

Pourtant on est en droit de s’interroger, car c’est vrai, ChatGPT n’est pas réglementaire face au RGPD. Des plaintes ont même déjà été déposées, notamment par l’avocate Zoé Vilain qui est également présidente de l’association de sensibilisation aux enjeux du numérique Janus International. Elle explique avoir créé un compte sur le site de OpenAI et constaté l’absence de conditions générales d’utilisation ou de politique de confidentialité. 

Si le gouvernement français opte pour la voie du milieu, comment compte-il s’y prendre exactement ? Il mise d’une part sur un rapport du Comité Nationale d’Éthique qui donnera dans quelques mois ses recommandations. 

Et d’autre part, il affirme la nécessité d’encadrer. Justement la commission européenne planche actuellement sur un projet de loi, le IA Act, depuis deux ans déjà. Et il lui faudrait encore du temps, parce qu’actuellement, il est encore difficile d’anticiper toutes les zones d’ombre de l’IA et la justice a besoin de temps pour évaluer les risques. Or l’intelligence artificielle, elle, n’attend pas pour se développer et les parlementaires sont poussés à répondre rapidement face à la montée en puissance des IA generative.

En parallèle, le gouvernement actuel doit faire face à des levées de boucliers, les startup s’alarment, elles craignent d’avoir des difficultés à se développer face à une réglementation trop stricte. Car l’enjeu est bien évidemment économique, on aimerait voir émerger en France des champions de l’IA. C’est donc un habile jeu d’équilibriste auquel se prête le gouvernement actuel qui navigue entre protection citoyenne et soutien à l’innovation.

Alors comment l’éthique peut-elle vraiment trouver sa place dans ces tensions contradictoires ? Le problème n’est-il pas toujours le même, les questions d’éthique arrivant toujours après la bataille, quand les produits technologiques sont développés ? L’éthique by design sera-t-elle un jour d’avantage explorée ou reste-elle un concept qui n’ira jamais plus loin qu’une bonne idée ?