Intelligence artificielle : comment l’Europe veut limiter son usage

Intelligence artificielle : comment l’Europe veut limiter son usage

Assistants vocaux, téléphones, appareisl d’aide au diagnostic médical, l’intelligence artificielle (IA) est déjà omniprésente dans nos vies quotidiennes. L’Union européenne souhaite soutenir le développement de l’IA tout en mettant en place des garde-fous, pour en limiter l’usage. Un équilibre difficile à trouver.
Public Sénat

Par Marie Brémeau

Temps de lecture :

3 min

Publié le

A écouter l’eurodéputée Gwendoline Delbos-Corfield (les Verts), on se croirait dans un affreux bouquin de science-fiction ; sauf que l’utilisation de l’intelligence artificielle est aujourd’hui une réalité qui fait froid dans le dos : « On sait qu’en termes de police prédictive par exemple, c’est [l’IA] extrêmement dangereux. Donc on arrête régulièrement aujourd’hui aux Etats-Unis des gens qui ne sont pas du tout coupables mais simplement car ils ont à peu près les traits que la machine conçoit pour le suspect. Parce que la banque de données qu’utilise l’application est une banque de données de visages d’hommes blancs et ça, elle en a plein, mais des hommes maghrébins ou noirs, elle en a très peu tout, comme des visages de femmes. Et donc elle va confondre toutes les femmes et tous les hommes qui n’ont pas des traits blancs. Du coup régulièrement on se retrouve avec des gens qui sont accusés à tort ou avec des gens qui sont discriminés. »

Des algorithmes racistes et sexistes ?

Si l’élue française salue l’initiative de la Commission européenne qui souhaite réglementer l’IA, Gwendoline Derbos-Corfield milite pour un encadrement beaucoup plus strict, car elle en mesure les dangers et les possibles manipulations. « On dit que les algorithmes sont racistes et sexistes, ce ne sont pas les algorithmes eux-mêmes évidemment mais c’est la manière dont ils ont été conçus. »

Une approche réglementaire par le risque

La récente proposition de l’exécutif européen entend poser de nouvelles règles mais aussi favoriser l’intelligence artificielle au travers d’un plan d’action. C’est une première mondiale, une approche réglementaire par le risque, pour éviter de mettre en place des systèmes de « surveillance généralisée » comme c’est déjà le cas en Chine ou de manipulation des comportements. Dragos Tudorache (Renew) est le président de la Commission spéciale sur l’IA au Parlement européen. Il se félicite que l’Europe se saisisse enfin du sujet. « Je pense que c’est une approche qui est bien conçue par la Commission. On avait besoin d’être très clair sur la typologie des algorithmes, des applications qui ne sont tout simplement pas acceptables au niveau des valeurs qui sont importantes pour nous ici en Europe. Nous voulons aussi être un standard qui peut s’imposer. »

La course à l’intelligence artificielle

Le plan de l’UE pour réglementer l’IA recourt à une approche en fonction des risques des différents systèmes. Quatre catégories de risque sont différenciées : le risque inacceptable, le risque élevé, le risque limité et le risque minimal. En cas de risque inacceptable, la Commission souhaite tout simplement interdire l’utilisation de l’IA mais les cas sont très rares. Une classification judicieuse pour Dragos Tudorache. « Il est important d’avoir cette différenciation entre les 4 types de risques pour veiller à trouver l’équilibre aussi avec les intérêts économiques, pour laisser nos entreprises développer cette technologie. Une technologie essentielle pour rester compétitif au niveau mondial. » Car entre les grandes puissances mondiales, la course à l’intelligence artificielle est bel et bien lancée.

Revoir notre émission sur l'espace replay

Dans la même thématique