La Commission européenne milite pour une intelligence artificielle (IA) "de confiance". C'est ce qu'il ressort de sa proposition de règlement sur le sujet dévoilée mercredi, un an après la publication de son livre blanc sur le sujet. Présenté par Bruxelles comme "le tout premier cadre juridique sur l'IA" au monde, ce projet vise à réguler la création d'intelligences artificielles utilisées en Europe. Le but : promouvoir une vision vertueuse de l'IA et empêcher certaines dérives déjà observées à l'étranger, comme le recours massif à la reconnaissance faciale en Chine pour alimenter un système de notation et de crédit social des citoyens.
Entre la Chine et les Etats-Unis, l'exécutif européen cherche donc à proposer une troisième voie pour le développement d'une IA plus éthique - comme elle l'a déjà fait en 2018 avec le RGPD, qui a établi de nouveaux standards pour la protection des données personnelles.
"En adoptant ces règles qui feront date, l'UE prend l'initiative d'élaborer de nouvelles normes mondiales qui garantiront que l'IA soit digne de confiance", a affirmé mercredi Margrethe Vestager, vice-présidente de la Commission européenne en charge du numérique et de la concurrence.
Et de poursuivre : "En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l'UE."
Adapter la régulation au risque supposé
Réguler des technologies comme l'IA n'est pas une mince affaire. "Le temps de la Commission n'est pas toujours celui des marchés - encore plus dans l'innovation et le numérique", commente Matthieu Lucchesi, avocat spécialisé en stratégie juridique et réglementaire dans le domaine de l'innovation au sein du cabinet Gide Loyrette Nouel. Etant donné que ces technologies sont en évolution permanente, "il faut réussir à poser un cadre suffisamment précis pour être viable et opérationnel, sans figer la réglementation."
C'est pourquoi l'exécutif mise sur une évaluation des risques au cas par cas. L'idée : adapter le contrôle et la régulation en fonction d'un risque supposé.
"C'est une approche pragmatique, déjà utilisée dans d'autres réglementations sectorielles européennes, comme le secteur financier, car elle permet de trouver un équilibre pour soutenir un écosystème tout en encadrant les dérives", poursuit Matthieu Lucchesi.
Ces nouvelles règles devront s'appliquer aux acteurs du secteur public et privé, quelle que soit leur taille, dès lors qu'ils mettent à disposition un système d'IA sur le marché de l'UE.
Auditer les technologies à "haut risque"
Quatre grandes catégories de risques ont été définies : inacceptable, élevé, limité et minime. Les risques jugés "inacceptables" visent les systèmes d'IA considérés comme une "menace évidente" pour la sécurité, les moyens de subsistance et les droits des personnes. Ces systèmes seront donc interdits. Il s'agit par exemple "des systèmes qui permettent la notation sociale par les États" ou encore "des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux", illustre la Commission.
En cas d'utilisation d'algorithmes interdits, l'exécutif européen propose des amendes pouvant grimper jusqu'à 6% du chiffre d'affaires annuel mondial ou 30 millions d'euros au maximum.
Le cœur du règlement se situe dans la régulation des risques "élevés". La Commission, qui dresse une liste exhaustive, vise les technologies d'IA utilisées dans "les infrastructures critiques" comme les transports, dans l'éducation (pour la notation d'épreuves d'examens par exemple), dans le domaine de l'emploi (comme le recours à des logiciels pour trier des CV lors de recrutements), dans les "services privés et publics essentiels" (comme par exemple, l'évaluation automatisée du risque d'un prêt bancaire), etc.
Création d'un comité européen de l'IA
De tels systèmes d'IA auront obligation de se faire connaître des autorités nationales pour pouvoir être auditées avant leur mise sur le marché, mais aussi une fois qu'ils seront disponibles. Ils devront aussi enregistrer leurs activités pour "garantir la traçabilité des résultats", fournir aux autorités nationales les informations nécessaires sur le système pour l'évaluation de sa conformité, informer clairement l'utilisateur ou encore, instaurer un "contrôle humain approprié" pour réduire les risques. Le non-respect de ces obligations pourra entraîner une amende pouvant aller jusqu'à 4% du chiffre d'affaires annuel mondial ou 20 millions d'euros. Pour les systèmes d'IA avec des risques limités et minimes, la Commission mise sur une auto-régulation et souhaite inciter les acteurs à adopter un code de bonne conduite.
Afin de superviser l'application de ces nouvelles règles, la Commission propose la création d'un comité européen de l'intelligence artificielle. Celui-ci comprendrait un représentant par pays, l'autorité de protection des données de l'UE et un représentant de la Commission. "Le texte étant appliqué par les Etats membres, un tel comité permettrait de s'assurer d'une mise en œuvre harmonisée à l'échelle européenne", explique l'avocat. "Cela est déterminant pour éviter que des acteurs étrangers passent par des Etats considérés comme plus permissifs pour accéder au marché européen." La proposition doit désormais être débattue pendant plusieurs mois par le Parlement européen et les 27 Etats membres, avant une mise en œuvre d'un texte définitif.
Sujets les + commentés