«L’informatique doit être au service de chaque citoyen.» L’idée est ancienne, puisqu’elle est inscrite à l’article 1er de la loi Informatique et Libertés, en vigueur depuis 1978. A l’époque des algorithmes et des progrès considérables de l’intelligence artificielle, elle est plus que jamais d’actualité.

Algorithmes, intelligence artificielle (IA) : ces deux notions s’invitent de plus en plus régulièrement dans le débat public, à mesure que les usages numériques se font massifs. Leur promesse : offrir un service efficace et personnalisé au consommateur. Mais, de plus en plus, les excès, les travers voire les dangers qu’ils induisent sont dénoncés. «Contrairement à ce qu’on avait pu penser, ces réponses automatisées ne sont pas de la technique pure», résume le journaliste spécialisé, Hubert Guillaud, rédacteur en chef d’InternetActu.net.

Trous dans la raquette

En France, la législation prévoit déjà des garde-fous. Pour commencer, elle encadre la récolte et l’utilisation des données personnelles, véritable nerf de la guerre de l’intelligence artificielle, qui n’est rien sans le Big data. Ensuite, elle interdit qu’une machine puisse prendre seule des décisions aux conséquences décisives pour une personne, comme un diagnostic médical ou un jugement en justice. Enfin, elle donne le droit à quiconque d’être informé sur la logique de fonctionnement d’un algorithme, par la personne qui en est responsable.

Lire aussi : Isabelle Collet : « Peindre la tech en rose est contre-productif »

Mais les trous dans la raquette subsistent, dans ce secteur où les évolutions techniques sont quotidiennes. Pour la Commission nationale Informatique et libertés (Cnil), la principale limite de l’encadrement juridique actuel tient à l’approche de la réglementation : la protection des données individuelles. Or, pour le «gendarme du numérique», le danger tient tout autant aux effets collectifs des algorithmes. Dans son rapport sur «les enjeux éthiques des algorithmes et de l’intelligence artificielle», la Cnil avertit : «Les critères de l’algorithme doivent ne pas entrer trop frontalement en opposition avec certains grands intérêts collectifs», comme la pluralité du débat public, entravé par les bulles de filtre et d’enferment ou la sincérité des scrutins électoraux. Elle craint même, sous les coups de boutoir de la personnalisation, la fin de notre système mutualiste d’assurances, avec tous les risques de discriminations que cela emporte.

Éthique de façade

De son côté, la commission européenne a rendu publique, en mai 2019, une série de recommandations «pour parvenir à une IA digne de confiance», fruit du travail d’un groupe d’experts qu’elle avait mandatés. A la suite de cette publication, elle a aussi annoncé travailler à une législation encadrant la reconnaissance faciale, une première mondiale.

Lire aussi : Garder la forme à travers son écran de bureau

Parmi les experts choisis par la commission, un philosophe allemand Thomas Metzinger. Il raconte dans une tribune la façon dont se sont tenus les débats, qui rassemblaient peu de spécialistes de l’éthique et surtout des représentants du secteur du numérique. Et il pointe le danger de «washing éthique», en prenant comme exemple l’impossibilité de trouver un consensus sur des «lignes rouges». La recherche sur les armes létales autonomes, par exemple.

C’est aussi cette critique d’une éthique de façade qui est adressée aux entreprises du secteur. De plus en plus nombreuses, ces dernières installent des comités en interne. Même si c’est parfois sous la pression, comme Google qui a élaboré sa charte éthique après que certains de ses salariés ont protesté contre un contrat passé avec le Pentagone sur l’analyse de drones. Comité qui aura fait long feu : une semaine après l’annonce de sa création, il était dissous, à nouveau sous la pression des salariés, en raison de la présence en son sein d’une conservatrice aux opinions homophobes.

 

Ce contrôle doit en fait être extérieur et indépendant, plaident les spécialistes de l’éthique. Les discours ne peuvent pas servir de seul gage. Pour preuve, les engagements pris par IBM sur le sujet n’ont pas empêché la firme de travailler avec les autorités philippines à des outils de surveillance de la population.

 

Rapport de la Cnil

Recommandations de l’UE pour une «IA digne de confiance»

Tribune de Thomas Metzinger

Sylvie Fagnart
Sylvie Fagnart
Plume Journaliste