Régulation de l’IA : une semaine très chargée en événements

Signature d’un décret par Joe Biden, sommet international au Royaume-Uni, vote pour encadrer les armes autonomes à l’ONU… Résumé d’une semaine riche en actualités, entre pétitions de principe et actions concrètes.
Rishi Sunak accueillant Ursula von der Leyen à Bletchley Park.
Rishi Sunak accueillant Ursula von der Leyen à Bletchley Park. (Crédits : Simon Dawson / No 10 Downing Street)

La semaine qui s'achève devrait rassurer ceux qui jugent que les politiques ne s'intéressent pas suffisamment aux progrès de l'intelligence artificielle (IA).

Tout a commencé lundi, lorsque Joe Biden a signé un décret visant à réguler cette technologie, une première dans l'histoire américaine.

Joe Biden signe un décret contre les usages malveillants de l'IA

En vertu de celui-ci, les grandes entreprises des nouvelles technologies entraînant des IA de pointe devront notifier le gouvernement américain de leurs travaux et partager avec lui les tests visant à s'assurer que cette IA est sûre. Les géants du cloud américains devront de leur côté prévenir le gouvernement sous 90 jours dès lors qu'un acteur étranger utilisera leur service pour entraîner de grands modèles linguistiques.

Le décret vise également à lutter contre les faux contenus générés par l'IA, en particulier les fameux deepfakes, ces fausses vidéos diablement réalistes qui peuvent mettre dans la bouche d'une personne des mots qu'elle n'a jamais prononcés. « Les deepfakes utilisent du contenu audio et vidéo généré par l'IA pour tenir des réputations, répandre des infox et commettre des arnaques », a déclaré le président américain lors de la signature du décret. Ces faux contenus générés grâce à l'IA constituent une source d'inquiétude d'autant plus grande aux États-Unis que le pays est désormais en pleine campagne présidentielle pour l'élection de 2024.

Le Département du Commerce sera chargé d'aider les entreprises à créer des labels pour déterminer si un contenu a été généré ou non par l'IA, labels qui seront également utilisés par les différentes branches du gouvernement. Enfin, le décret prévoit la création d'un AI Safety Center au sein du Département du Commerce. Chargé d'établir des standards pour la sécurité de l'IA, il travaillera en coopération avec un organisme similaire qui va être créé au Royaume-Uni.

Les limites de l'initiative de Joe Biden résident dans le fait qu'il s'agit d'un décret présidentiel : afin de pouvoir réguler plus profondément les pratiques du privé, le président devra faire voter une loi par le Congrès, une gageure dans un paysage politique survolté et en pleine campagne électorale, bien que l'IA soit l'un des domaines ou républicains et démocrates puissent parvenir à s'entendre.

Réunion à Bletchley Park

Pour la deuxième grosse actualité de la semaine autour de la régulation de l'IA, direction l'autre côté de l'Atlantique, à Bletchley Park, au nord de Londres, où s'est déroulé mardi et mercredi l'AI Safety Summit. Un lieu choisi par le Premier ministre Rishi Sunak pour sa portée symbolique. C'est là que, durant la Seconde Guerre mondiale, le mathématicien Alan Turing, posant les bases de l'informatique moderne, a conçu l'ordinateur qui a permis de décoder Enigma, utilisé par les Allemands pour crypter leurs communications.

L'événement a rassemblé une liste d'invités prestigieux, dont la vice-présidente américaine Kamala Harris, la Secrétaire du Commerce Gina Raimondo, Ursula von der Leyen, la présidente de la Commission européenne, ainsi que Wu Zhaohui, le vice-ministre chinois des Sciences et Technologies. Le roi Charles a de son côté fait une apparition vidéo au but de l'événement, tandis qu'Emmanuel Macron et Olaf Scholz, le chancelier allemand, étaient aux abonnés absents. Côté privé, étaient présents Mustafa Suleyman, cofondateur de DeepMind, ainsi que l'entrepreneur-star Elon Musk, connu pour ses prédictions apocalyptiques sur l'IA, qui s'est entretenu avec Rishi Sunak lors d'une interview diffusée en direct sur X à la fin de l'événement.

Le Premier ministre britannique a obtenu un succès diplomatique avec la signature d'une déclaration internationale reconnaissant la nécessité de se protéger des risques posés par l'IA, ratifiée par l'Union européenne ainsi que par 25 pays, dont la Chine et les États-Unis. Les signataires s'engagent également à mettre en place un processus d'audit de l'IA auprès des entreprises, similaire à ce que propose le décret de Joe Biden.

Lire aussiL'Intelligence Artificielle générative va-t-elle supprimer le travail ?

Si l'on reste dans l'ordre du déclaratif, c'est la première fois que la Chine s'entend sur le sujet avec les gouvernements occidentaux.

« Voir le vice-ministre Whu sur la même scène que Gina Raimondo envoie un signal très positif, à savoir que les gouvernements ont compris qu'il est nécessaire de travailler ensemble sur un tel sujet. D'autant que la Chine a adopté des régulations sur l'IA cet été dont nous pouvons nous inspirer », affirme Russ Shaw, fondateur de London Tech Advocates, un réseau local d'acteurs des nouvelles technologies.

Deux futurs AI Safety Summits doivent avoir lieu en Corée du Sud et en France l'an prochain, autre succès pour Rishi Sunak qui voit ainsi son initiative s'inscrire dans la durée. Le Premier ministre britannique a fait de l'IA l'un de ses chevaux de bataille. Lors de l'événement, il a également déclaré qu'un investissement précédemment annoncé de 100 millions de livres dans deux superordinateurs allait passer à 300 millions.

S'il salue la portée symbolique du sommet, Jean-Baptiste Bouzige, Président et fondateur d'Ekimetrics, spécialiste français de l'IA, pense que la balle est avant tout dans le camp des États-Unis.

« Les entreprises leaders sur l'IA se trouvant outre-Atlantique, c'est Joe Biden qui possède le plus gros effet de levier. Il se murmure du reste dans le milieu de la tech américaine que la responsabilité de l'IA va devenir un élément clef pour gagner des appels d'offres dès l'an prochain : il sera impossible de travailler avec les entreprises du Fortune 500 si on ne peut pas prouver qu'on traite proprement les données. »

Un vote à l'ONU pour encadrer les armes autonomes

Enfin, la semaine a également été marquée par un vote à l'Assemblée générale des Nations unies mercredi, en faveur d'une motion pour contrôler l'usage des armes autonomes. Ce vote représente la première étape d'un processus visant à interdire les armes sans contrôle humain significatif (ex : un drone militaire qui agirait sans supervision humaine), ainsi qu'à proposer un cadre pour le développement des armes autonomes.

« Il est temps d'adapter le droit international aux évolutions technologiques qui permettent de développer des armes dotées d'un degré croissant d'autonomie. Un important travail de réflexion a été mené depuis dix ans sur ce sujet, il convient désormais de se doter d'un cadre juridique sous la forme d'un traité international signé par un maximum d'États. C'est essentiel pour endiguer les risques de prolifération, cela enverrait un signal fort à toutes les parties prenantes, notamment aux producteurs d'armes », note Anne-Sophie Simpere, coordinatrice de la campagne contre les robots tueurs en France.

Sujets les + lus

|

Sujets les + commentés

Commentaires 4
à écrit le 04/11/2023 à 9:01
Signaler
L'UE ne pourrait elle pas militer pour un numérique disons un tantinet souverain au lieu de se réfugier dans le normatif c'est à dire des réunions qui seront parfois? suivies d'effets.

à écrit le 04/11/2023 à 8:42
Signaler
Les armes autonomes, mais on y est déjà !

à écrit le 03/11/2023 à 19:36
Signaler
the old fart veut reguler des trucs quil ne comprend pas contre les gens malveillants....pas de competences techniques et les malveillants c'est qui? la chine la russie et la coree du nord qui vont se faire reguler par les yanks? il est a la masse ou...

à écrit le 03/11/2023 à 18:14
Signaler
La réguler ? Ne me faites pas rire ! C'est simplifier notre surveillance sans plus ! ;-)

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.