Régulation de l'IA : les Etats préfèrent prévenir que guérir

En à peine cinq mois, l'intelligence artificielle générative, symbolisée par ChatGPT, est devenue le sujet central du monde de la tech. Ce nouveau marché se constitue à grande vitesse, dans le sillage des géants Microsoft, Google et Meta, avec la promesse de gains de productivité dans de nombreuses industries. Mais cette fois, les autorités ne veulent pas se faire déborder par la révolution technologique, et elles appellent déjà à réguler.
François Manens
Les régulateurs semblent décidés à ne pas laisser le marché de l'IA grossir sans encadrement.
Les régulateurs semblent décidés à ne pas laisser le marché de l'IA grossir sans encadrement. (Crédits : DADO RUVIC)

Depuis la sortie de ChatGPT fin novembre 2022, le marché de l'intelligence artificielle générative explose. Cette technologie, jusqu'à récemment restreinte au monde de la recherche, s'immisce à grande vitesse dans celui des entreprises. En tête de file, Microsoft profite de son partenariat privilégié avec OpenAI pour intégrer des briques d'IA générative dans son moteur de recherche, sa suite de bureautique ou encore ses outils de cybersécurité. Et ses concurrents s'empressent de suivre le mouvement.

Face à cet avènement de l'IA générative, comparé par les plus optimistes au déploiement d'Internet ou au lancement de l'iPhone, la réponse des autorités s'organise, en Europe comme outre-Atlantique. L'objectif : éviter de reproduire les dérives du marché de la tech des années 2000, qui a mené à la constitution de monopoles et à des dérives dans la gestion des données personnelles.

Prévenir plutôt que guérir

Dernière à taper du poing sur la table : l'autorité américaine de la concurrence. Dans une tribune publiée mercredi dans le New York Times, la présidente de la Federal Trade Commission Lina Khan appelle à réguler l'IA générative. Elle compare les derniers mois à ceux qui ont précédé l'avènement du web 2.0, au milieu des années 2000. Cette époque, marquée par la montée en puissance de Google et Facebook, a mené à l'établissement de monopoles dans plusieurs secteurs technologiques, ainsi qu'à plusieurs scandales sur la gestion des données personnelles dans les années 2010. « Le résultat de cette révolution technologique a été la création d'une économie en ligne où l'accès à des services de plus en plus essentiel est conditionné à la collecte et à la vente de nos données personnelles », rappelle-t-elle. Avant de mettre en garde : « L'histoire de la croissance des entreprises technologiques ces deux dernières décennies doit servir d'avertissement sur la façon dont nous devrions aborder l'expansion de l'IA générative. Les autorités publiques ont la responsabilité de s'assurer que cette histoire ne se reproduise pas.»

Pour y parvenir, Lina Khan insiste sur la nécessité d'intervenir dès aujourd'hui, et de ne pas faire preuve du même laissez-faire que dans les années 2000. La FTC avait laissé les marchés se constituer et elle s'est attaquée aux monopoles de la tech qu'une fois constitués et extrêmement difficile à briser. Ce raté a mené à la nomination de Lina Khan en 2021, interprété comme un virage interventionniste de la commission. C'est pourquoi la dirigeante explique qu'elle va observer de près la constitution du marché et qu'elle n'hésitera pas à utiliser « vigoureusement » les outils à sa disposition pour s'assurer du respect du droit de la concurrence et de la protection des consommateurs américains.

D'ailleurs, elle n'est pas seule : jeudi, l'homologue britannique de la FTC a également lancé une enquête sur le marché grandissant de l'IA générative. Sarah Cardell, la directrice de l'autorité britannique des marchés et de la concurrence (CMA), a précisé au Financial Times que le régulateur allait observer « quels types de garde-fous et de principes il devrait développer pour assurer une concurrence juste et la protection des consommateurs ».

Lire aussiChatGPT : Microsoft et OpenAI sont-ils en train de créer un monopole dans l'intelligence artificielle ?

Les géants de l'IA générative concèdent des preuves de bonne foi

Dans le viseur des régulateurs se trouve avant tout les plus grands acteurs du secteur -Microsoft et OpenAI, Google et Anthropic, Meta - qui déboursent des centaines de millions de dollars pour mener une course à la performance des intelligences artificielles génératives. Bien qu'une partie de l'écosystème affirme que les entreprises n'ont pas besoin d'autant de capitaux pour créer leur propre version de la technologie, une course à deux vitesses est bel et bien en train de se créer, avec une barrière financière à l'entrée particulièrement élevée.

Les inquiétudes vont même au-delà de l'affrontement des modèles, puisqu'elles s'étendent aux outils nécessaires à la conception d'intelligences artificielles. Trois acteurs contrôlent de façon écrasante le marché du cloud (Amazon, Microsoft et Google), c'est-à-dire l'accès à la puissance de calcul nécessaire pour entraîner des IA, et une entreprise, Nvidia, semble incontournable dans la fourniture des puces nécessaires aux machines.

Face à cette situation, les régulateurs comptent cette fois sur l'appui des pouvoirs exécutifs. La Maison-Blanche a reçu hier les géants américains de l'IA afin d'évoquer les risques « actuels et à court terme » du développement de la technologie, et fin avril, les ministres du Numérique du G7 se sont accordés sur l'adoption d'une régulation pour prévenir les risques de l'IA. Au-delà du symbolique, ces discussions mènent à des concessions : la Maison Blanche a par exemple annoncé que sept des plus grandes entreprises d'IA ont accepté d'ouvrir partiellement leurs modèles lors de la Def Con, une des plus grandes conférences annuelles de cybersécurité, qui se tiendra en août. L'objectif : faire étudier leur fonctionnement par des experts du risque. Mais ces petites concessions n'éclipsent pas les problèmes globaux. Jusqu'ici, OpenAI, comme la plupart de ses concurrents, a refusé de fournir des informations de base sur son modèle de langage, GPT-4, que ce soit sur son fonctionnement à proprement parler ou sur le détails des données qui ont servit à son entraînement.

En Europe, le respect de la vie privée au centre des débats

Si aux Etats-Unis le débat se concentre sur la concurrence, en Europe, il penche pour l'instant du côté de la protection des données, en attendant le vote définitif de l'IA Act qui encadrera l'ensemble de l'industrie. Et pour cause : les modèles comme GPT-4 sont entraînés sur des millions de milliards de données, des « tranches de web », aspirées sans prendre en compte la protection des données personnelles ou les droits d'Europe. Les créateurs d'IA invoquent le « fair use » [l'usage raisonnable, ndlr] pour justifier leurs pratiques, mais elles opèrent bel et bien en zone grise du droit.

Fin mars, l'autorité des données italienne a mis les pieds dans le plat, sous la forme d'un coup de pression sur OpenAI, qui a servi d'avertissement à l'ensemble de l'écosystème. Elle a reproché à l'entreprise d'avoir récupéré des données personnelles comme des noms ou des dates de naissance sans demander au préalable le consentement des personnes concernées, comme prévu dans les textes. Le créateur de ChatGPT avait un mois pour montrer des améliorations sur le sujet, sous la menace d'un bannissement et de lourdes amendes.

Finalement, OpenAI s'est exécuté, et a montré des efforts jugés suffisants par l'autorité italienne, comme la création d'un formulaire pour faire supprimer les données personnelles qui apparaîtraient dans les réponses du chatbot. Cette première bataille juridique est donc déjà terminée, mais elle laisse entrevoir le chantier qui se profile. D'autres autorités européennes, comme la Cnil en France, vont rapporter les conclusions de leurs propres rapports dans les mois à venir.

François Manens

Sujets les + lus

|

Sujets les + commentés

Commentaires 6
à écrit le 08/05/2023 à 17:26
Signaler
Et moi, Candide, Je veux la fin des maladies, ... avec de meilleures régulations des industries alimentaires et des systèmes de santé et de recherche, en Europe et au niveau mondial. ### Je veux le ralentissement du dérèglement climatique, e...

à écrit le 08/05/2023 à 12:17
Signaler
Tout sera toujours développé au nom du plus jamais ça (combattre le prochain Hitler) ! C'est une conséquence de la concurrence des empires, des nations. Si je ne le développe pas mes concurrents eux le feront, je dois de plus le développer plus vite...

à écrit le 06/05/2023 à 17:42
Signaler
Plus besoin d'être bac+5 ! La France devrait se dépêcher dans faire une, vu le niveau scolaire. Une IA greffé dans chaque écolier pourra nous faire remonter dans le classement mondial.

à écrit le 06/05/2023 à 13:33
Signaler
C'est trop tard, comme le dit Geoffrey Hinton ex-Google : l'AI est déjà en train de manipuler nos esprits. Prochaine étape : Terminator ! Repentez-vous, car la fin du monde est proche !

le 08/05/2023 à 9:19
Signaler
Sarah Connor ?

à écrit le 06/05/2023 à 8:58
Signaler
A force de nous en faire une publicité monstre pour se faire financer, on se rend bien compte qu'elle s'éloigne de "notre" monde qui recherche la résilience et la sobriété !

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.