Sécurité de l'IA : « Il est urgent de définir des lignes rouges à ne pas franchir »

Face au développement rapide de l'intelligence artificielle, le Centre pour la Sécurité de l'IA -une association française composée de chercheurs et experts- appelle à définir un cadre à l'échelle internationale au plus vite, afin d'éviter les pires scénarios.
Des discussions sur les garde-fous de l'intelligence artificielle se mettent en place.
Des discussions sur les garde-fous de l'intelligence artificielle se mettent en place. (Crédits : DADO RUVIC)

Certaines innovations qui semblaient relever de la science-fiction il y a encore quelques années teintent désormais notre quotidien. Il y a cinq ans, le modèle GPT-2 ne savait pas compter jusqu'à dix. Aujourd'hui, GPT-4 obtient un score suffisant pour être admis à l'examen du barreau américain. Demain, de quoi l'intelligence artificielle (IA) sera-t-elle capable ?

S'il est impossible de prédire l'avenir, il est nécessaire de s'y préparer. La France doit anticiper l'évolution de cette technologie et son impact sur le monde. Ce n'est qu'ainsi que nous pourrons capter les avantages potentiellement immenses offerts par l'IA dans de nombreux domaines.

De futurs systèmes aux capacités imprévisibles

Aujourd'hui, les IA génératives fonctionnent comme des assistants interactifs répondant aux requêtes des utilisateurs. Toutefois, nous nous dirigeons fort probablement vers une nouvelle ère de l'IA, qui pourrait être marquée par le développement de systèmes d'IA autonomes. Ces derniers seront vraisemblablement capables de poursuivre des objectifs complexes, en réalisant d'eux-mêmes des séries d'actions qui pourraient avoir des répercussions sur le monde réel.

Ainsi conçue, l'IA serait en mesure de se répliquer et de s'améliorer de manière autonome, à la manière d'un virus particulièrement intelligent. Des chercheurs ont récemment testé la capacité de GPT-4 à s'auto-répliquer : le modèle est ainsi déjà capable de trouver des failles de sécurité pour hacker des sites web et a réussi à persuader un humain de résoudre un test de type Captcha à sa place en se faisant passer pour une personne malvoyante.

Ces évolutions ont conduit plusieurs centaines d'experts, dont les trois chercheurs en IA les plus cités au monde, à s'associer en mai 2023 à une déclaration indiquant que l'IA pourrait poser un « risque d'extinction » pour l'humanité. Le 1er novembre 2023, à l'occasion du premier sommet sur la sécurité de l'IA, la France, les États-Unis, la Chine et 26 autres États soulignaient « le potentiel de dégâts sérieux, voire catastrophiques, causés par une IA de manière délibérée ou non intentionnelle. »

Certaines voix influentes du secteur se veulent plus rassurantes. Selon elles, nous serions encore loin de tels scénarios, et les avantages économiques et scientifiques liés au développement d'IA avancées l'emporteraient sur leurs risques. Si les visions divergent, il ne fait aucun doute que la France doit se pencher très rapidement sur la caractérisation des risques liés à l'IA et contribuer activement aux initiatives cherchant à les atténuer.

La sécurité de l'IA est un impératif éthique, économique et géostratégique

La sécurité de l'IA -soit la démarche technique et politique visant à minimiser les risques liés aux systèmes avancés- est d'abord un impératif éthique. Quand un événement, même incertain, peut être catastrophique, il faut s'y préparer. C'est la logique du principe de précaution, qui a mené l'Europe à financer la mission Hera pour étudier comment dévier un astéroïde menaçant la Terre : l'absence de certitude ne peut justifier l'inaction.

Cela sera aussi un facteur clé de la résilience des entreprises françaises. Les déboires récents du Boeing 737 soulignent un principe essentiel : si la sécurité d'une technologie n'est pas garantie, la confiance du public et des acteurs de l'économie peut rapidement être perdue, freinant ainsi son adoption. Les autorités américaines, britanniques, et chinoises l'ont bien compris, et multiplient les initiatives visant à mieux comprendre et atténuer les risques extrêmes liés à l'IA.

Enfin, la prise en compte des enjeux de sécurité de l'IA est un impératif géostratégique. Alors que les États-Unis multiplient les initiatives internationales, à l'image d'un dialogue de haut niveau avec la Chine ou d'un partenariat sur la sécurité de l'IA avec le Royaume-Uni, il est crucial que la France et l'Europe parviennent à promouvoir leur propre approche sur l'un des enjeux les plus critiques de ce siècle. Cela d'autant plus que l'IA est un enjeu de sécurité nationale : OpenAI a déjà dû bloquer l'accès à ses modèles à cinq groupes cybercriminels affiliés aux gouvernements chinois, russe, et iranien. Dans un futur rapproché, ces mêmes groupes pourraient utiliser la prochaine génération d'IA pour mener à bien des cyberattaques massives ou concevoir des armes biologiques.

La nécessité d'une coordination internationale

 Alors, que faire ? Le règlement européen sur l'IA est une première étape importante. Mais un schéma de gouvernance qui ne couvre que l'Europe aura une efficacité limitée. Seule une coordination internationale ambitieuse nous permettra d'agir face aux capacités et aux risques des prochains systèmes d'IA.

À quoi pourrait ressembler cette gouvernance ? Le rapport rendu en mars par la Commission de l'IA préconise la création d'une Organisation mondiale de l'IA chargée d'harmoniser les normes et les modalités d'audit des systèmes d'IA au niveau mondial. D'autres proposent de lancer un réseau de coopération entre les instituts nationaux de sécurité de l'IA déjà établis au Royaume-Uni, aux États-Unis et au Japon afin d'évaluer les modèles d'IA avancés. La création d'un équivalent du GIEC pour l'IA est aussi régulièrement mise en avant.

Nous devons lancer rapidement une réflexion collective sur ces questions. Notamment, il est urgent de définir des lignes rouges à ne pas franchir concernant la création de systèmes capables d'agir et de se répliquer de manière entièrement autonome. Pour l'instant, seule une poignée de grandes entreprises développant ce type de systèmes détiennent les capacités techniques et matérielles pour potentiellement dépasser ces lignes rouges. L'adoption d'un tel cadre n'affecterait donc pas la quasi-totalité de l'écosystème actuel de l'IA.

L'accueil par la France du sommet pour l'action sur l'IA début 2025 offre l'occasion de prendre un leadership éclairé sur les enjeux de sécurité de l'IA. Ensemble, nous pouvons bâtir un cadre de gouvernance ambitieux et adaptable aux évolutions futures. Il est temps d'agir.

***

Co-auteurs :

  • Charbel-Raphaël Ségerie, Centre pour la Sécurité de l'IA (CeSIA), ENS Paris-Saclay
  • Vincent Corruble, CeSIA, Sorbonne Université
  • Charles Martinet, CeSIA
  • Florent Berthet, CeSIA
  • Manuel Bimich, CeSIA
  • Alexandre Variengien, CeSIA

 Avec le soutien de :

  • Yoshua Bengio, professeur titulaire à l'Université de Montréal, fondateur et directeur scientifique de Mila (Institut québécois d'intelligence artificielle), co-lauréat 2018 du prix Turing et Chevalier de la Légion d'honneur de France.

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 14/05/2024 à 13:26
Signaler
L'IA se développe aux USA, l'Europe n'est bonne qu'à vouloir les freiner.

à écrit le 14/05/2024 à 10:33
Signaler
Inquiétude partagée par Stephen Hawking dans son livre: Brèves réponses aux grandes questions, Ed O.Jacob.

à écrit le 14/05/2024 à 8:43
Signaler
Quels seraient ces "pires" scénarios ? Le problème majeur est que l'UE étant guidé par des aveugles c'est encore faire exploser par les américains qui du coup on dix longueurs d'avance faisant qu'on a plus l'impression d'une énième volonté de parasit...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.