Intelligence artificielle : la Californie cherche aussi à poser des limites, en s'inspirant de l'UE

La Californie, région mère de la Silicon Valley, souhaite à son tour imposer des limites à l'intelligence artificielle, notamment à l'approche des élections américaines. Et pour cela, elle n'hésite pas à s'inspirer de l'Union européenne. Explications.
La Californie, région célèbre pour la Silicon Valley, essaie d'imposer des limites à l'intelligence artificielle.
La Californie, région célèbre pour la Silicon Valley, essaie d'imposer des limites à l'intelligence artificielle. (Crédits : Crédits : Patrick Nouhailler/ Flickr/ CC)

La Californie, région célèbre pour la Silicon Valley, essaie d'imposer des limites à l'intelligence artificielle. Et pour ce faire, elle compte prendre exemple sur l'Union européenne.

« Nous essayons d'apprendre des Européens et de travailler avec eux pour comprendre comment mettre en place des règles pour l'IA », explique David Harris, conseiller à la California Initative for Technology and Democracy.

Cette organisation entend protéger les élections et le processus démocratique des dérives des technologies émergentes.

Dans ce contexte, plus de 30 propositions de lois ont déjà été introduites au Parlement de Californie, selon David Harris, qui indique avoir conseillé des responsables américains et européens sur le sujet. Les textes soumis au corps législatif californien abordent ainsi plusieurs aspects de l'IA : l'un propose d'obliger les sociétés technologiques à dévoiler quelles données ont été utilisées pour développer un modèle d'IA.

Un autre inclut l'interdiction de publicités de campagne électorale utilisant, d'une façon ou d'une autre, l'IA générative, interface qui permet de créer du contenu (texte, image, son) sur simple demande en langage courant.

Lire aussiFace à la domination américaine et la déferlante de l'IA, le gouvernement veut pousser le cloud français

Des mesures inspirées de l'UE

Les différentes propositions de lois rappellent un texte, adopté mi-mars, par le Parlement européen. Ce dernier encadre les modèles d'IA et instaure des contraintes en matière de transparence, de droits d'auteur ou de protection de la vie privée.

Dans le détail, des règles spécifiques s'appliqueront aux modèles d'IA à usage général, capables de réaliser un très grand nombre de tâches différentes, à l'image des robots conversationnels. Les développeurs de ces modèles devront donc fournir des informations détaillées sur les contenus qu'ils ont utilisés, textes ou images notamment, pour « entraîner » leurs systèmes. Ils devront respecter la législation européenne en matière de droits d'auteur.

Les exigences seront plus strictes pour les modèles les plus puissants qui, selon l'UE, présentent un « risque systémique », comme ChatGPT ou Gemini de Google. Les entreprises qui proposent ces technologies devront en évaluer et atténuer les risques, suivre et signaler à la Commission les incidents graves, offrir des garanties en matière de cybersécurité et fournir des informations sur la consommation d'énergie de leurs modèles. Sachant que la Commission a déjà mis en place un bureau de l'IA qui veillera au respect de ces règles.

D'autant qu'à l'approche des élections européennes qui auront lieu en juin, la Commission se montre davantage vigilante. Mardi, elle a appelé les très grandes plateformes en ligne, dont X, TikTok, Facebook et Instagram, à identifier « clairement » les contenus générés par intelligence artificielle tels que les « deepfakes ». Objectif affiché, lutter contre la désinformation. Cette recommandation est l'une des mesures préconisées par Bruxelles pour bien respecter, sous peine d'amendes, le nouveau règlement sur les services numériques (DSA) pleinement en vigueur depuis février.

Lire aussiReddit, porté par la vague de l'intelligence artificielle, mise sur une valorisation optimiste

Elections américaines en vue

A l'approche des élections américaines, les enjeux autour de l'IA sont également primordiaux outre-Atlantique. Des élus en Californie veulent donc aussi faire en sorte que les réseaux sociaux signalent tout contenu, toute image, vidéo ou bande sonore créée grâce à l'IA générative.

Un sondage réalisé en octobre par l'université de Berkeley auprès d'électeurs californiens a révélé que 73% d'entre eux étaient favorables à des lois contre la désinformation ou les fausses images (« deepfakes ») et limitant l'utilisation de l'IA lors de campagnes électorales. Il s'agit, qui plus est, de l'un des rares sujets qui fait consensus côté républicain comme démocrate.

Les élus de Californie entendent se positionner aux avant-postes de la régulation de l'IA, tout comme les sociétés de l'Etat le sont pour faire avancer cette technologie. Elue démocrate d'une circonscription qui comprend une partie de la Silicon Valley, Gail Pellerin soutient une proposition de loi qui interdirait les « deepfakes » politiques trompeurs durant les trois mois qui précèdent un scrutin.

« Les gens observent ce qui se passe en Californie », selon Gail Pellerin.

« C'est un mouvement qui nous concerne tous », ajoute-t-elle. « Nous devons garder une longueur d'avance sur ceux qui veulent semer la pagaille lors d'une élection ».

Lire aussiFigure 01, ce robot humanoïde nourri à ChatGPT qui se comporte comme un humain

« Interdire l'IA n'arrêtera rien »

S'inspirer de l'UE comporte toutefois certaines limites, selon des détracteurs. L'association professionnelle NetChoice, qui représente les entreprises du numérique, met ainsi en garde contre la tentation d'importer les règles de l'UE en Californie.

« Ils adoptent l'approche européenne vis-à-vis de l'intelligence artificielle, qui veut bannir cette technologie », clame Carl Szabo, responsable juridique de l'organisation, qui milite pour une régulation moins pénalisante. « Interdire l'IA n'arrêtera rien », assure le juriste.

« C'est une mauvaise idée parce que, par définition, les mauvais acteurs ne respectent pas les lois ».

De son côté, le responsable juridique de l'éditeur de logiciels Adobe, Dana Rao, est néanmoins plus mesuré. Il salue la séparation qu'a opérée l'UE entre l'IA à l'impact limité, qui comprend « deepfakes » et faux textes, et celle à « haut risque », utilisée notamment dans les infrastructures critiques ou le maintien de l'ordre. « La version finale du texte nous convient », affirme-t-il.

Adobe indique d'ores et déjà procéder à des études d'impact pour évaluer les risques liés à de nouveaux produits basés sur l'IA. L'entreprise a également développé, avec la Coalition for Content Provenance and Authenticity, organisation qui compte, parmi ses membres, Microsoft et Google, une série de métadonnées, les « content credentials » qui renseignent sur l'élaboration et le contenu d'une image.

(Avec AFP)

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 27/03/2024 à 18:59
Signaler
"« C'est une mauvaise idée parce que, par définition, les mauvais acteurs ne respectent pas les lois »." Exactement mais justement, c'est l'UERSS empire prévu pour durer mille ans au sein d'une finance mondiale à 25% liée au crime organisé. Observons...

à écrit le 27/03/2024 à 16:14
Signaler
On verra en novembre si cela joue pour l'élection américaine.

à écrit le 27/03/2024 à 13:56
Signaler
Il est trop tard. Puisque personne ne dirige la Planète, l'IA finira par faire ce qu'elle voudra, avec l'aide de tous les cupides de ce monde. A commencer sur les champs de bataille où, tel Lucky Luke, l'IA tire déjà plus vite (et beaucoup mieux) que...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.