Non, chatGTP n’a pas écrit cette chronique, mais méfiez-vous quand même de l’IA
Une chronique garantie 100% écrite par un·e humain·e.
Soutenez le nouveau magazine de la rédaction de Chut!
Discriminations non artificielles
Ah l’intelligence artificielle, on en a peut-être jamais autant parlé dans les médias ! Mais passer l’engouement autour de chat GPT, on commence maintenant à parler de ses dérives, et on s’inquiète notamment dans le domaine de l’éducation : des étudiants auraient triché en utilisant le chatbot.
Nous, chez Chut! qui parlons d’intelligence artificielle depuis quelques années déjà, nous intéressons à la triche, mais surtout aux biais qui peuvent être présents dans les algorithmes, et pour cause, leurs conséquences peuvent être désastreuses. C’est que les stéréotypes sexistes et racistes ont la vie dure. Il fut un temps où les ingénieurs concevaient des airbag de voiture uniquement à partir de mannequins masculins. Résultat les femmes étaient moins bien protégées que les hommes. Aujourd’hui on retrouve les mêmes discriminations à l’œuvre dans l’IA, preuve que notre société n’évolue pas tant que ça…
Une inhibition artificielle
Et justement dans le domaine de l’éducation. Il y a les étudiants qui trichent et puis il y a ceux victimes de discriminations. Avant Parcoursup, les élèves de lycées ont utilisé l’outil APB (Admission Post Bac) qui a été un véritable fiasco, notamment parce que son algorithme orientait les élèves issus de milieux défavorisés vers les universités les moins cotées.
On connait aussi cet exemple d’une femme noire qu’une intelligence artificielle de reconnaissance faciale ne reconnaissait pas. Des exemples comme ceux-là, il commence à y en avoir beaucoup, et il n’est pas question seulement de discrimination raciale et sexiste, même si ces sujets sont évidemment graves. Le problème est plus large que cela, et je ne vous apprends rien, nous avons tous et toutes des biais cognitifs, les neurosciences en dénombrent plus de 250.
Ce que nous apprennent également les neurosciences, c’est que nous pouvons lutter contre nos biais en renforçant ce qu’on appelle la fonction d’inhibition présente dans le cortex préfrontale qui exerce un contrôle sur le système de croyances fausses que nous pouvons avoir. Or, ce qu’on sait aussi, c’est qu’on s’inspire du cerveau humain pour développer l’intelligence artificielle. Alors, pourquoi pas imiter cette fonction d’inhibition avec l’intelligence artificielle elle-même ?
C’est ce dont nous parle le chercheur Arnaud Demortière dans notre dernier Chut! La prophétie du like. Des startups planchent actuellement sur le sujet et trouvent des solutions avec l’intelligence artificielle elle-même, comme la startup Giskard, qui sécurise les programmes d’IA et identifie ses failles … grâce à l’IA elle-même.
On le dit souvent sur ces ondes en ce moment, l’intelligence artificielle est aujourd’hui absolument partout, alors il devient urgent de créer des solutions éthiques, et dont certaines sont à chercher dans l’intelligence artificielle elle-même.
À suivre
Tech pour toutes, enfin un programme politique pour plus de femmes dans le secteur du numérique
ÉcouterA celles et ceux qui aimeraient enfin voir plus de femmes dans le secteur de la tech, cette chronique est pour vous.
Soin des villes et soin des champs
ÉcouterBonjour à celles et ceux qui cherchent désespérément à se faire soigner, cette chronique est pour vous !
Violence sans filtre
ÉcouterA celles et ceux qui s’interrogent sur la violence brutale et sans filtre du cyberharcèlement, cette chronique est pour vous.