A Paris et dans le monde, les inquiets de l'intelligence artificielle appellent à une pause

Ce lundi, quelques jeunes militants du mouvement Pause AI aux revendications hétéroclites sont venus manifester à Paris et dans 9 autres villes ailleurs dans le monde pour appeler à un ralentissement du développement de l'IA, ou du moins à un développement plus contrôlé. Ils estiment que la situation est urgente et que les dirigeants politiques n'en ont pas conscience.
(Crédits : Marine Protais)

Ils sont moins d'une dizaine réunis à la sortie d'un métro parisien du 7ème arrondissement - et presqu'autant de journalistes pour suivre la manifestation. « Stop à la course au suicide », peut-on lire sur une pancarte laissée au sol. « Arrêtons l'IA, parce que vous n'embarqueriez pas sur un vol avec un risque d'accident de 14% », brandit de son côté Salim Boujaddi, 18 ans, affublé d'un t-shirt orange aux couleurs de Pause AI, l'organisme à l'origine de la mobilisation. Cet étudiant en mathématiques, inquiet de la course à « une IA toujours plus puissante » réclame une pause temporaire du développement de la technologie « avant de savoir ce que l'on en fait ». Il imagine un traité international similaire à celui existant pour préserver la couche d'ozone. Comme d'autres développent une éco-anxiété face au changement climatique, Salim comme ces autres jeunes activistes craignent de voir leur futur mis en danger par l'intelligence artificielle.

Ils n'étaient qu'une poignée à se rassembler à Paris, mais 9 autres manifestations ont eu lieu le même jour à Londres, Berlin, San Francisco, New York, Rome, La Haye, Stockholm, Oslo et Sydney. L'appel à se mobiliser a également été lancé par Pause AI, une organisation fondée par Joep Meindertsma, un ingénieur néerlandais. Sa branche française se lance timidement dans l'Hexagone et cette manifestation en est la première réunion. L'organisation demande aux dirigeants politiques, qui se réuniront le 20 mai à l'occasion d'un sommet à Séoul sur la sécurité de l'IA, d'"être des adultes responsables". Dans son communiqué Pause AI souhaite la mise en place d'un accord international contraignant mettant fin à la course aux armements dans les systèmes d'IA les plus dangereux, la création d'une agence internationale pour faire respecter cet accord et un référendum mondial sur le développement d'une intelligence artificielle surhumaine, qui est le but explicite des principaux laboratoires d'IA. Sur la petite place parisienne - et ailleurs dans le monde - les revendications sont bien plus hétéroclites. Certains réclament un contrôle des capacités de l'intelligence artificielle, d'autres plaident pour un équilibrage des investissements entre ceux accordés à la construction de data centers et ceux pour la recherche en éthique de l'IA. Quand d'autres encore préfèrent une pause pure et simple. Les sources de leurs angoisses diffèrent aussi d'un petit groupe à l'autre : allant des suppressions d'emplois jusqu'au bio-terrorisme, en passant par le déraillement d'une IA incontrôlable et meurtrière. Mais tous appellent à une prise de conscience globale des risques que représente la technologie.

Le sujet des risques prend par ailleurs de l'ampleur au niveau politique. La Chine et les Etats-Unis auront ce mardi leur première discussion sur cette thématique, ont annoncé de hauts responsables américains. Le Royaume-Uni s'est quant à lui doté dès 2023 d'un AI Safety Institute. Cette organisation dont le but est d'évaluer les risques des grands modèles de langage « les plus avancés » a remis il y a quelques mois son premier rapport, plutôt inquiétant.

Lire aussiLes garde-fous des IA génératives ne servent pas à grand-chose

Alerter avant « le point de non-retour »

« Il y a une ignorance totale sur ce sujet en France, ce qui conduit nos dirigeants à prendre des décisions terribles », s'inquiète toutefois Maxime Fournes, créateur de Pause AI France. L'ingénieur balaye rapidement l'AI Act, la loi européenne dont le but est justement de mieux évaluer les risques de la technologie, qu'il juge encourageante mais insuffisante.

Lui qui a travaillé plusieurs années en tant qu'ingénieur dans le domaine de l'IA, se dit très conscient des risques. Son objectif est d'avertir le grand public et les dirigeants politiques « avant d'atteindre un point de non-retour ». Il fustige notamment le rapport du comité interministériel sur l'IA générative récemment remis à Emmanuel Macron. Ce dernier prône une accélération massive des investissements. Une recommandation dangereuse, aux yeux du militant, car le rapport ne tient pas compte de l'évolution très rapide de la technologie, dont notamment le développement des "agents autonomes", ces IA capables de s'auto-commander pour réaliser des tâches complexes (qui n'en sont pour le moment qu'à leurs balbutiements).

« Je ne suis pas contre l'IA, mais je suis pour une IA sûre »

Antonin, Sascha et Hugo, étudiants en première année à Télécom Paris, s'émeuvent eux aussi de n'entendre que très peu de discussions autour des risques liés aux IA au sein de leur école. « C'est un sujet quasiment pas abordé alors que de plus en plus d'étudiants veulent faire carrière dans l'IA », pointe Hugo, 20 ans. Sur les pancartes, les trois jeunes étudiants, n'ont encore rien écrit. « On attend de trouver l'inspiration.»

Malgré les quelques pancartes légèrement anxiogènes et les mines inquiètes, Gilles Bréda précise que le mouvement Pause AI n'est pas technophobe. « Je ne suis pas contre l'IA, mais je suis pour une IA sûre », insiste-t-il. Ce musicien professionnel est lui aussi l'un des instigateurs du mouvement Pause AI France. Gilles a 28 ans et c'est sa première manifestation. C'est en écoutant des podcasts de chercheurs américains comme Yoshua Bengio (connu pour ses positions alarmistes sur le sujet, signataire d'une lettre appelant à un moratoire sur le sujet aux côtés d'Elon Musk), que Gilles a senti son angoisse monter. Ses principales sources d'inquiétude : les risques de cyberattaques massives permises par l'IA générative et le bio terrorisme. « Aujourd'hui des IA servent à découvrir de nouvelles molécules pour des traitements, mais on pourrait très bien imaginer que les mêmes technologies servent à créer des molécules dans le cadre d'attaques bio terroristes », précise-t-il.

Lire aussiCe rapport extrêmement ambitieux remis à Macron pour faire de la France un champion mondial de l'intelligence artificielle

Une idéologie controversée

Dans leurs discours, les militants de Pause AI reprennent des termes comme « risques existentiels », « intelligence artificielle générale », sûreté de l'intelligence artificielle,  intelligence superhumaine... que l'on retrouve aussi dans des mouvements idéologiques comme l'altruisme efficace (effective altruism), ou le longtermisme. Maxime Fournes précise toutefois que son mouvement n'a pas de liens directs avec ces courants de pensée. Ces idéologies qui s'intéressent au développement de la civilisation humaine sur le (très) long terme, sont de plus en plus prégnantes dans la Silicon Valley et à l'Université d'Oxford, notamment à la faveur de l'avènement de l'IA générative. Elles partent du postulat que l'intelligence artificielle parviendra à surpasser l'humain en tout point. Et que ce développement constitue à ce titre un risque existentiel pour l'humanité, aussi important voire plus que le risque de pandémie ou de guerre nucléaire. C'est par ailleurs aussi le point de départ d'entreprises qui développent elles-mêmes des technologies d'IA comme Open AI. Pour se prémunir de ces risques, OpenAI se targue justement d'être en mesure de contrôler le développement de l'intelligence artificielle.

Ce point de vue alarmiste ne fait pourtant pas consensus chez les chercheurs spécialistes de l'intelligence artificielle. Il est notamment combattu par Yann Le Cun, prix Turing et directeur de l'IA chez Meta, dont la vision très pragmatique et plutôt optimiste de la technologie semble être partagée au sein des laboratoires français. Gilles Bréda regrette justement l'absence de discours alternatif dans le pays.

Lire aussi« Les géants de l'intelligence artificielle s'intéressent moins aux biais sexistes et racistes qu'à la course à la performance » (Margaret Mitchell, Hugging Face)

Ces discours alarmistes sont aussi décriés par des chercheurs pourtant spécialistes de l'éthique de l'intelligence artificielle. Margaret Mitchell, chef de l'éthique chez la startup franco-américaine Hugging Face, estime que mettre trop l'accent sur les risques à très long terme minimise les conséquences très actuelles du déploiement de l'IA : l'amplification des discriminations, notamment. Des conséquences qu'ont pourtant bien en tête certains militants de Pause AI. « Il n'y a pas seulement que les risques catastrophiques à prendre en considération, c'est une technologie qui va empirer tous les problèmes que l'on a déjà », argumente par exemple Antonin. Gilles Bréda nuance : « les conséquences sur les discriminations nous paraissent moins catastrophiques qu'une cyberattaque imminente ou le bioterrorisme. »

Sujets les + lus

|

Sujets les + commentés

Commentaires 5
à écrit le 14/05/2024 à 13:20
Signaler
Comme chacun y va de son IA, pas possible de mettre d'accord tout le monde pour une pause.

à écrit le 14/05/2024 à 9:40
Signaler
Et tous ces manifestants sont ensuite rentrés chez eux avec un Uber puis ont commandé à manger sur Deliveroo, deux plateformes qui utilisent massivement l'IA pour mieux exploiter les "auto-entrepeneurs du XXIeme siècle". L'oeil, la poutre, air bien c...

à écrit le 14/05/2024 à 8:46
Signaler
14 % c est un risque acceptable. les bateaux qui partaient en amerique au 17-18eme sciecle avait un taux de perte bien superieur (un bon tiers ne revenait pas)

à écrit le 14/05/2024 à 8:45
Signaler
Le probleme c est que si nous (francais) arretons, le reste de l europe arretera peut etre. Les USA probablement pas mais les chinois surement pas. on va se retrouver comme les chinois et la poudre (c ets eux qui l ont inventé mais les fusils etaient...

à écrit le 14/05/2024 à 8:06
Signaler
C'est un faux combat, l'IA n'est qu'un outil dont il serait idiot de se passer et avec des gens qui ont de l'esprit la recherche sur l'IA ne risquerait rien du tout, par contre il est évident qu'avec les grands malades qui possèdent et détruisent le ...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.