Intelligence artificielle « éthique » : l'UE mise sur une régulation des risques

Bruxelles a présenté mercredi sa proposition de règlement sur l'intelligence artificielle. Pour promouvoir un développement "éthique" de ces technologies dans l'UE, l'exécutif européen privilégie une évaluation au cas par cas des risques induits. La Commission préconise des amendes pouvant grimper jusqu'à 6% du chiffre d'affaires annuel mondial ou 30 millions d'euros au maximum.
Anaïs Cherif
Margrethe Vestager, vice-présidente de la Commission européenne en charge du numérique et de la concurrence, le 7 octobre 2020.
Margrethe Vestager, vice-présidente de la Commission européenne en charge du numérique et de la concurrence, le 7 octobre 2020. (Crédits : Reuters)

La Commission européenne milite pour une intelligence artificielle (IA) "de confiance". C'est ce qu'il ressort de sa proposition de règlement sur le sujet dévoilée mercredi, un an après la publication de son livre blanc sur le sujet. Présenté par Bruxelles comme "le tout premier cadre juridique sur l'IA" au monde, ce projet vise à réguler la création d'intelligences artificielles utilisées en Europe. Le but : promouvoir une vision vertueuse de l'IA et empêcher certaines dérives déjà observées à l'étranger, comme le recours massif à la reconnaissance faciale en Chine pour alimenter un système de notation et de crédit social des citoyens.

Entre la Chine et les Etats-Unis, l'exécutif européen cherche donc à proposer une troisième voie pour le développement d'une IA plus éthique - comme elle l'a déjà fait en 2018 avec le RGPD, qui a établi de nouveaux standards pour la protection des données personnelles.

"En adoptant ces règles qui feront date, l'UE prend l'initiative d'élaborer de nouvelles normes mondiales qui garantiront que l'IA soit digne de confiance", a affirmé mercredi Margrethe Vestager, vice-présidente de la Commission européenne en charge du numérique et de la concurrence.

Et de poursuivre : "En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l'UE."

Adapter la régulation au risque supposé

Réguler des technologies comme l'IA n'est pas une mince affaire. "Le temps de la Commission n'est pas toujours celui des marchés - encore plus dans l'innovation et le numérique", commente Matthieu Lucchesi, avocat spécialisé en stratégie juridique et réglementaire dans le domaine de l'innovation au sein du cabinet Gide Loyrette Nouel. Etant donné que ces technologies sont en évolution permanente, "il faut réussir à poser un cadre suffisamment précis pour être viable et opérationnel, sans figer la réglementation."

C'est pourquoi l'exécutif mise sur une évaluation des risques au cas par cas. L'idée : adapter le contrôle et la régulation en fonction d'un risque supposé.

"C'est une approche pragmatique, déjà utilisée dans d'autres réglementations sectorielles européennes, comme le secteur financier, car elle permet de trouver un équilibre pour soutenir un écosystème tout en encadrant les dérives", poursuit Matthieu Lucchesi.

Ces nouvelles règles devront s'appliquer aux acteurs du secteur public et privé, quelle que soit leur taille, dès lors qu'ils mettent à disposition un système d'IA sur le marché de l'UE.

Auditer les technologies à "haut risque"

Quatre grandes catégories de risques ont été définies : inacceptable, élevé, limité et minime. Les risques jugés "inacceptables" visent les systèmes d'IA considérés comme une "menace évidente" pour la sécurité, les moyens de subsistance et les droits des personnes. Ces systèmes seront donc interdits. Il s'agit par exemple "des systèmes qui permettent la notation sociale par les États" ou encore "des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux", illustre la Commission.

En cas d'utilisation d'algorithmes interdits, l'exécutif européen propose des amendes pouvant grimper jusqu'à 6% du chiffre d'affaires annuel mondial ou 30 millions d'euros au maximum.

Le cœur du règlement se situe dans la régulation des risques "élevés". La Commission, qui dresse une liste exhaustive, vise les technologies d'IA utilisées dans "les infrastructures critiques" comme les transports, dans l'éducation (pour la notation d'épreuves d'examens par exemple), dans le domaine de l'emploi (comme le recours à des logiciels pour trier des CV lors de recrutements), dans les "services privés et publics essentiels" (comme par exemple, l'évaluation automatisée du risque d'un prêt bancaire), etc.

Création d'un comité européen de l'IA

De tels systèmes d'IA auront obligation de se faire connaître des autorités nationales pour pouvoir être auditées avant leur mise sur le marché, mais aussi une fois qu'ils seront disponibles. Ils devront aussi enregistrer leurs activités pour "garantir la traçabilité des résultats", fournir aux autorités nationales les informations nécessaires sur le système pour l'évaluation de sa conformité, informer clairement l'utilisateur ou encore, instaurer un "contrôle humain approprié" pour réduire les risques. Le non-respect de ces obligations pourra entraîner une amende pouvant aller jusqu'à 4% du chiffre d'affaires annuel mondial ou 20 millions d'euros. Pour les systèmes d'IA avec des risques limités et minimes, la Commission mise sur une auto-régulation et souhaite inciter les acteurs à adopter un code de bonne conduite.

Afin de superviser l'application de ces nouvelles règles, la Commission propose la création d'un comité européen de l'intelligence artificielle. Celui-ci comprendrait un représentant par pays, l'autorité de protection des données de l'UE et un représentant de la Commission. "Le texte étant appliqué par les Etats membres, un tel comité permettrait de s'assurer d'une mise en œuvre harmonisée à l'échelle européenne", explique l'avocat. "Cela est déterminant pour éviter que des acteurs étrangers passent par des Etats considérés comme plus permissifs pour accéder au marché européen." La proposition doit désormais être débattue pendant plusieurs mois par le Parlement européen et les 27 Etats membres, avant une mise en œuvre d'un texte définitif.

Lire aussi : Jusqu'où déléguer aux intelligences artificielles?

Anaïs Cherif

Sujets les + lus

|

Sujets les + commentés

Commentaires 8
à écrit le 23/04/2021 à 23:45
Signaler
La technologie n'est qu'au stade expérimental, que deja nous y mettons un corset administratif . Lorsque le premier ordinateur quantique à température ambiante sortira ,il y aura tellement de contraintes ,d'interdictions qu'en France Il sera mort n...

à écrit le 23/04/2021 à 10:13
Signaler
A Bruxelles, toutes idées qui peut faire fonctionner des fonctionnaires est accepté d'office !

à écrit le 22/04/2021 à 18:25
Signaler
De quelle éthique parlez vous ? Nos données depuis plus de 40 sont vendues aux Américains maintenant aux GAFAM, Au point que nous avons peur de mettre une idée sur un portable ou faire une recherche sur les moteurs de recherches ou sur YouTube, tou...

à écrit le 22/04/2021 à 18:13
Signaler
Visiblement l'IA peut, ne pas être éthique... mais, savons nous ce qu'éthique veut dire dans l'UE?

à écrit le 22/04/2021 à 17:16
Signaler
Et l'éthique, l'UE héritière du troisième reich, elle sait ce que c'est ! "empêcher certaines dérives déjà observées à l'étranger, comme le recours massif à la reconnaissance faciale en Chine pour alimenter un système de notation et de crédit soc...

le 22/04/2021 à 18:28
Signaler
La Liberté n’est pas acquise gratuitement, tout à un prix .

le 23/04/2021 à 8:10
Signaler
Vous mélangez tout sciemment. ... l ue veut se donner un outil juridique pour empêcher des stes chinoises us etc ou des faux -nez européens de se livrer au fichage et notation des consommateurs selon leurs utilisations de outils et consommations ... ...

le 23/04/2021 à 9:21
Signaler
"La Liberté n’est pas acquise gratuitement, tout à un prix . " Si la liberté n'est pas gratuite alors cela n'est pas de la liberté. "Tout ce qui a son prix n'a que peu de valeur !" Nietzsche @ brailleur brehat: Oui l'UE veut monter un...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.