Intelligence artificielle « éthique » : l'UE mise sur une régulation des risques

 |  | 910 mots
Lecture 5 min.
Margrethe Vestager, vice-présidente de la Commission européenne en charge du numérique et de la concurrence, le 7 octobre 2020.
Margrethe Vestager, vice-présidente de la Commission européenne en charge du numérique et de la concurrence, le 7 octobre 2020. (Crédits : Reuters)
Bruxelles a présenté mercredi sa proposition de règlement sur l'intelligence artificielle. Pour promouvoir un développement "éthique" de ces technologies dans l'UE, l'exécutif européen privilégie une évaluation au cas par cas des risques induits. La Commission préconise des amendes pouvant grimper jusqu'à 6% du chiffre d'affaires annuel mondial ou 30 millions d'euros au maximum.

La Commission européenne milite pour une intelligence artificielle (IA) "de confiance". C'est ce qu'il ressort de sa proposition de règlement sur le sujet dévoilée mercredi, un an après la publication de son livre blanc sur le sujet. Présenté par Bruxelles comme "le tout premier cadre juridique sur l'IA" au monde, ce projet vise à réguler la création d'intelligences artificielles utilisées en Europe. Le but : promouvoir une vision vertueuse de l'IA et empêcher certaines dérives déjà observées à l'étranger, comme le recours massif à la reconnaissance faciale en Chine pour alimenter un système de notation et de crédit social des citoyens.

Entre la Chine et les Etats-Unis, l'exécutif européen cherche donc à proposer une troisième voie pour le développement d'une IA plus éthique - comme elle l'a déjà fait en 2018 avec le RGPD, qui a établi de nouveaux standards pour la protection des données personnelles.

"En adoptant ces règles qui feront date, l'UE prend l'initiative d'élaborer de nouvelles normes mondiales qui garantiront que l'IA soit digne de confiance", a affirmé mercredi Margrethe Vestager, vice-présidente de la Commission européenne en charge du numérique et de la concurrence.

Et de poursuivre : "En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l'UE."

Adapter la régulation au risque supposé

Réguler des technologies comme l'IA n'est pas une mince affaire. "Le temps de la Commission n'est pas toujours celui des marchés - encore plus dans l'innovation et le numérique", commente Matthieu Lucchesi, avocat spécialisé en stratégie juridique et réglementaire dans le domaine de l'innovation au sein du cabinet Gide Loyrette Nouel. Etant donné que ces technologies sont en évolution permanente, "il faut réussir à poser un cadre suffisamment précis pour être viable et opérationnel, sans figer la réglementation."

C'est pourquoi l'exécutif mise sur une évaluation des risques au cas par cas. L'idée : adapter le contrôle et la régulation en fonction d'un risque supposé.

"C'est une approche pragmatique, déjà utilisée dans d'autres réglementations sectorielles européennes, comme le secteur financier, car elle permet de trouver un équilibre pour soutenir un écosystème tout en encadrant les dérives", poursuit Matthieu Lucchesi.

Ces nouvelles règles devront s'appliquer aux acteurs du secteur public et privé, quelle que soit leur taille, dès lors qu'ils mettent à disposition un système d'IA sur le marché de l'UE.

Auditer les technologies à "haut risque"

Quatre grandes catégories de risques ont été définies : inacceptable, élevé, limité et minime. Les risques jugés "inacceptables" visent les systèmes d'IA considérés comme une "menace évidente" pour la sécurité, les moyens de subsistance et les droits des personnes. Ces systèmes seront donc interdits. Il s'agit par exemple "des systèmes qui permettent la notation sociale par les États" ou encore "des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux", illustre la Commission.

En cas d'utilisation d'algorithmes interdits, l'exécutif européen propose des amendes pouvant grimper jusqu'à 6% du chiffre d'affaires annuel mondial ou 30 millions d'euros au maximum.

Le cœur du règlement se situe dans la régulation des risques "élevés". La Commission, qui dresse une liste exhaustive, vise les technologies d'IA utilisées dans "les infrastructures critiques" comme les transports, dans l'éducation (pour la notation d'épreuves d'examens par exemple), dans le domaine de l'emploi (comme le recours à des logiciels pour trier des CV lors de recrutements), dans les "services privés et publics essentiels" (comme par exemple, l'évaluation automatisée du risque d'un prêt bancaire), etc.

Création d'un comité européen de l'IA

De tels systèmes d'IA auront obligation de se faire connaître des autorités nationales pour pouvoir être auditées avant leur mise sur le marché, mais aussi une fois qu'ils seront disponibles. Ils devront aussi enregistrer leurs activités pour "garantir la traçabilité des résultats", fournir aux autorités nationales les informations nécessaires sur le système pour l'évaluation de sa conformité, informer clairement l'utilisateur ou encore, instaurer un "contrôle humain approprié" pour réduire les risques. Le non-respect de ces obligations pourra entraîner une amende pouvant aller jusqu'à 4% du chiffre d'affaires annuel mondial ou 20 millions d'euros. Pour les systèmes d'IA avec des risques limités et minimes, la Commission mise sur une auto-régulation et souhaite inciter les acteurs à adopter un code de bonne conduite.

Afin de superviser l'application de ces nouvelles règles, la Commission propose la création d'un comité européen de l'intelligence artificielle. Celui-ci comprendrait un représentant par pays, l'autorité de protection des données de l'UE et un représentant de la Commission. "Le texte étant appliqué par les Etats membres, un tel comité permettrait de s'assurer d'une mise en œuvre harmonisée à l'échelle européenne", explique l'avocat. "Cela est déterminant pour éviter que des acteurs étrangers passent par des Etats considérés comme plus permissifs pour accéder au marché européen." La proposition doit désormais être débattue pendant plusieurs mois par le Parlement européen et les 27 Etats membres, avant une mise en œuvre d'un texte définitif.

Lire aussi : Jusqu'où déléguer aux intelligences artificielles?

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 23/04/2021 à 23:45 :
La technologie n'est qu'au stade expérimental, que deja nous y mettons un corset administratif .
Lorsque le premier ordinateur quantique à température ambiante sortira ,il y aura tellement de contraintes ,d'interdictions qu'en France Il sera mort né . Il faudra aller vers les USA ou les chinois .Les Gafas n'ont vraiment rien à craindre de l'Europe , toujours à se tirer une balle dans le pied avec des annonces qui n'engage pas au dynamisme ,à la créativité ,à rêver le futur . Je serai un génie dans le domaine ,je partirai rapidement créer ma start up autre part pour éviter L'armee technocratique qui va s'abattre sur cette technologie .

Voir seabubble ou l'homme volant zappata ect..qui se sont battu contre l'armée technocratique .
a écrit le 23/04/2021 à 10:13 :
A Bruxelles, toutes idées qui peut faire fonctionner des fonctionnaires est accepté d'office !
a écrit le 22/04/2021 à 18:25 :
De quelle éthique parlez vous ?
Nos données depuis plus de 40 sont vendues aux Américains maintenant aux GAFAM,
Au point que nous avons peur de mettre une idée sur un portable ou faire une recherche sur les moteurs de recherches ou sur YouTube, tout est tracé , être soi même , être unique n’existe pas dans le concept IA qui ne connaît que l’IA.

N’ombres de grosses boites en bourses profitent de ces données pour leur marqueting.

Donc pas de blabla , svp , trop tard pour l’éthique, vous nous avez mis sur un plateau aux mains de ces grosses sociétés valorisées en bourse dont les futurs bobos consomment sans modération et après ça vient nous faire un cours sur l’écologie, bandes d’hypocrites !
a écrit le 22/04/2021 à 18:13 :
Visiblement l'IA peut, ne pas être éthique... mais, savons nous ce qu'éthique veut dire dans l'UE?
a écrit le 22/04/2021 à 17:16 :
Et l'éthique, l'UE héritière du troisième reich, elle sait ce que c'est !

"empêcher certaines dérives déjà observées à l'étranger, comme le recours massif à la reconnaissance faciale en Chine pour alimenter un système de notation et de crédit social des citoyens"

Bref elle s'interdit les pratiques d'une dictature ! Whaoua ça c'est de l'ambition ya pas à dire ! ^^

Vite un frexit, quitte à terminer pauvres autant devenir, enfin, libres.
Réponse de le 22/04/2021 à 18:28 :
La Liberté n’est pas acquise gratuitement, tout à un prix .
Réponse de le 23/04/2021 à 8:10 :
Vous mélangez tout sciemment. ... l ue veut se donner un outil juridique pour empêcher des stes chinoises us etc ou des faux -nez européens de se livrer au fichage et notation des consommateurs selon leurs utilisations de outils et consommations ... ne rien faire ça aurait été anti démocratique ...ou alors faut arrêter d utiliser les outils numériques
Réponse de le 23/04/2021 à 9:21 :
"La Liberté n’est pas acquise gratuitement, tout à un prix . "

Si la liberté n'est pas gratuite alors cela n'est pas de la liberté.

"Tout ce qui a son prix n'a que peu de valeur !" Nietzsche

@ brailleur brehat:

Oui l'UE veut monter une énième usine à gaz comme elle a fait toujours, en quoi me contredit tu là hypocrite qaue tu es ?

Signalé.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :