L’IA est-elle sexiste (et raciste, homophobe et transphobe) ?

Quand on pense ordinateur, programme informatique, robot ou intelligence artificielle, on se dit qu’on peut difficilement faire plus impartial en termes de jugements de valeur et de stéréotypes. Et pourtant, au-delà de sa supposée neutralité, l’intelligence artificielle (ou IA) cache une foule de biais encodés au sein des programmes qui en sont à l’origine, source de discriminations.
#Education #WomenInTech #Intelligence artificielle #Tech #Politique
À l’occasion de l’exposition Computer GRRRLS qui se déroule en ce moment à la Gaîté Lyrique, nous sommes allé·e·s à une table ronde qui traitait des biais au sein de l’IA. Un sujet peu connu, mais passionnant, couvert par trois expertes : une généticienne férue de code et investie sur le sujet de la mixité dans les sciences, une senior machine learning scientist qui travaille sur le traitement automatique du langage naturel pour les assistants vocaux, et une activiste, journaliste et développeuse qui se penche sur les liens entre racisme et production d’algorithmes et de données. Le sujet nous a immédiatement interpellé·e·s, attention les oreilles (ou plutôt les yeux) : l’intelligence artificielle est-elle sexiste (mais également raciste, homophobe, transphobe, etc.) ?
Oups ! La suite de cet article est réservé aux abonné·es
Abonnez-vous pour nous découvrir, nous lire, nous soutenir !
Liberté
14 €Par trimestre- 1 numéro par trimestre
- Résiliable à tout moment
- L'accès à la version en ligne
1 an
48 €Par an- 48€ au lieu de 56€
- 4 numéros par an
- L'accès à la version en ligne
Le Club
150 €Par an- 4 numéros par an
- L'accès à la version en ligne
- Une participation à 4 conférences de rédaction par an
- La cocréation de 4 tribunes du Club publiées dans le magazine
Comment ça marche ? Par ici les infos !
J’ai déjà un abo
Abonnement collectivité, contactez-nous !