Un premier traité international sur l'IA adopté par le Conseil de l'Europe

Le premier traité international juridiquement contraignant encadrant l'utilisation de l'intelligence artificielle a été adopté par le Conseil de l'Europe ce vendredi. Il énonce des exigences de transparence et de contrôle des systèmes d'IA.
Le texte a été adopté lors de la réunion ministérielle annuelle du Comité des ministres du Conseil de l'Europe.
Le texte a été adopté lors de la réunion ministérielle annuelle du Comité des ministres du Conseil de l'Europe. (Crédits : Johanna Geron)

« Exigences de transparence (et) identification des contenus » : le Conseil de l'Europe a adopté ce vendredi le premier traité international juridiquement contraignant encadrant l'utilisation de l'intelligence artificielle (IA).

« Le traité, également ouvert à la signature de pays non-européens, établit un cadre juridique qui s'applique tout au long du cycle de vie des systèmes d'IA, traite des risques que peuvent représenter ces systèmes et promeut une innovation responsable », précise le Conseil de l'Europe dans un communiqué.

Le texte a été adopté lors de la réunion ministérielle annuelle du Comité des ministres du Conseil de l'Europe, qui réunit les ministres des Affaires étrangères des 46 États membres.

« La convention énonce des exigences de transparence et de contrôle adaptées à des contextes et à des risques spécifiques, notamment l'identification des contenus générés par les systèmes d'IA », précise le Conseil de l'Europe. « Les parties devront adopter des mesures pour identifier, évaluer, prévenir et atténuer les risques éventuels et évaluer la nécessité d'un moratoire, d'une interdiction ou d'autres mesures appropriées concernant l'utilisation de systèmes d'IA lorsque cette utilisation est susceptible de présenter des risques incompatibles avec les normes relatives aux droits de l'homme », poursuit l'instance européenne.

Lire aussiLe départ d'llya Sutskever, l'architecte des garde-fous des IA, marque la fin d'une ère pour OpenAI

Des dizaines de pays réunis

Cette convention-cadre a été élaborée durant deux ans par un organe intergouvernemental qui a rassemblé les 46 États membres du Conseil, l'Union européenne et 11 États non-membres (Etats-Unis, Australie, Canada, Israël ou Japon notamment), ainsi que des représentants du secteur privé, de la société civile et du monde universitaire, intervenant en qualité d'observateurs.

Marija Pejcinovic Buric, secrétaire générale du Conseil de l'Europe, a salué l'adoption d'un « traité international unique en son genre qui fera en sorte que l'intelligence artificielle soit respectueuse des droits des personnes ».

« Elle répond à la nécessité de disposer d'une norme de droit international bénéficiant du soutien d'États de différents continents unis par des valeurs communes, qui permet de tirer parti des avantages de l'intelligence artificielle, tout en réduisant les risques qu'elle représente. Avec ce nouveau traité, nous entendons garantir une utilisation responsable de l'IA, respectueuse des droits de l'homme, de la démocratie et de l'État de droit », a-t-elle ajouté.

Lire aussiA Paris et dans le monde, les inquiets de l'intelligence artificielle appellent à une pause

La convention-cadre sera ouverte à la signature à Vilnius le 5 septembre à l'occasion d'une conférence des ministres de la Justice.

L'IA Act pour encadrer cette technologie

L'Union européenne avait également adopté début mars « l'IA Act » une loi pour encadrer les systèmes d'IA comme ChatGPT, une législation unique au monde. Ce texte vise à encadrer les dérives potentielles autour de l'intelligence artificielle, tout en protégeant et favorisant l'innovation autour de cette technologie dans l'Union européenne (UE). Un fragile équilibre qui a suscité de nombreux débats, avec notamment une récente fronde de la France et de l'Allemagne qui sont parvenues à obtenir un allègement du texte afin de protéger leurs champions nationaux de l'IA générative, Mistral AI et Aleph Alpha.

L'IA Act classe les systèmes d'intelligence artificielle en plusieurs catégories, en fonction du niveau de risque, avec des contraintes allant de zéro pour les plus anodins à l'interdiction pure et simple pour les plus dangereux. Dans cette dernière catégorie, on trouve les systèmes de notation à l'image du crédit social chinois, ou encore les dispositifs de reconnaissance émotionnelle utilisés sur le lieu de travail ou à l'école. Viennent ensuite les IA dites « à haut risque », utilisées dans des domaines sensibles comme le secteur médical, l'éducation et la police. Pour les créateurs de ces modèles, le texte prévoit des contraintes spécifiques, comme la nécessité de prouver que leur système a été entraîné avec des données de qualité, prévoir une surveillance humaine sur la machine, fournir une documentation technique solide et mettre en place un système de gestion des risques.

Pour Katharina Zügel, qui a participé à la rédaction d'un récent rapport sur l'IA publié par le Forum sur l'Information et la Démocratie, l'IA Act est un pas dans la bonne direction qui permet au pouvoir politique de reprendre le contrôle sur l'évolution de l'IA.

« Cela montre que les démocraties ont aussi leur mot à dire dans l'élaboration de ces systèmes d'IA qui ont aujourd'hui un impact majeur sur toute la société. Les entreprises privées ne peuvent pas être les seules aux manettes », confie-t-elle en mars à La Tribune.

(Avec AFP)

Sujets les + lus

|

Sujets les + commentés

Commentaires 6
à écrit le 18/05/2024 à 7:39
Signaler
"Cela montre que les démocraties ont aussi leur mot à dire dans l'élaboration de ces systèmes d'IA " Quelles démocraties !? Quelles IA ? Mythomanes.

à écrit le 17/05/2024 à 18:20
Signaler
Ont ils consulté l'IA avant de prendre une décision ? Cela serait un signe d'intelligence ! ;-)

à écrit le 17/05/2024 à 17:13
Signaler
l'UE qui tente de réguler un domaine où elle est incapable d'exceller. Les vraies superpuissances rigolent...

à écrit le 17/05/2024 à 17:05
Signaler
"" reconnaissance émotionnelle"" !!!!!! wow, j'ai essaye d'expliquer a mon frere indecrottable ingenieur qu'on ne peut pas reconnaitre les emotions!!!!!! il faut relire ses cours, sur ce que fait un modele cnn, accessoirement qu'est ce qu'est une emo...

à écrit le 17/05/2024 à 15:31
Signaler
Ni la chine ni la russie n'ont signé. Il est vrai qu'elles ne respectent pas les traités.

le 17/05/2024 à 16:29
Signaler
jusqu'à preuve du contraire nul pays n'est tenu de respecter un traité qu'il n'a pas signé

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.