
Depuis la sortie de ChatGPT fin novembre 2022, le marché de l'intelligence artificielle générative explose. Cette technologie, jusqu'à récemment restreinte au monde de la recherche, s'immisce à grande vitesse dans celui des entreprises. En tête de file, Microsoft profite de son partenariat privilégié avec OpenAI pour intégrer des briques d'IA générative dans son moteur de recherche, sa suite de bureautique ou encore ses outils de cybersécurité. Et ses concurrents s'empressent de suivre le mouvement.
Face à cet avènement de l'IA générative, comparé par les plus optimistes au déploiement d'Internet ou au lancement de l'iPhone, la réponse des autorités s'organise, en Europe comme outre-Atlantique. L'objectif : éviter de reproduire les dérives du marché de la tech des années 2000, qui a mené à la constitution de monopoles et à des dérives dans la gestion des données personnelles.
Prévenir plutôt que guérir
Dernière à taper du poing sur la table : l'autorité américaine de la concurrence. Dans une tribune publiée mercredi dans le New York Times, la présidente de la Federal Trade Commission Lina Khan appelle à réguler l'IA générative. Elle compare les derniers mois à ceux qui ont précédé l'avènement du web 2.0, au milieu des années 2000. Cette époque, marquée par la montée en puissance de Google et Facebook, a mené à l'établissement de monopoles dans plusieurs secteurs technologiques, ainsi qu'à plusieurs scandales sur la gestion des données personnelles dans les années 2010. « Le résultat de cette révolution technologique a été la création d'une économie en ligne où l'accès à des services de plus en plus essentiel est conditionné à la collecte et à la vente de nos données personnelles », rappelle-t-elle. Avant de mettre en garde : « L'histoire de la croissance des entreprises technologiques ces deux dernières décennies doit servir d'avertissement sur la façon dont nous devrions aborder l'expansion de l'IA générative. Les autorités publiques ont la responsabilité de s'assurer que cette histoire ne se reproduise pas.»
Pour y parvenir, Lina Khan insiste sur la nécessité d'intervenir dès aujourd'hui, et de ne pas faire preuve du même laissez-faire que dans les années 2000. La FTC avait laissé les marchés se constituer et elle s'est attaquée aux monopoles de la tech qu'une fois constitués et extrêmement difficile à briser. Ce raté a mené à la nomination de Lina Khan en 2021, interprété comme un virage interventionniste de la commission. C'est pourquoi la dirigeante explique qu'elle va observer de près la constitution du marché et qu'elle n'hésitera pas à utiliser « vigoureusement » les outils à sa disposition pour s'assurer du respect du droit de la concurrence et de la protection des consommateurs américains.
D'ailleurs, elle n'est pas seule : jeudi, l'homologue britannique de la FTC a également lancé une enquête sur le marché grandissant de l'IA générative. Sarah Cardell, la directrice de l'autorité britannique des marchés et de la concurrence (CMA), a précisé au Financial Times que le régulateur allait observer « quels types de garde-fous et de principes il devrait développer pour assurer une concurrence juste et la protection des consommateurs ».
Les géants de l'IA générative concèdent des preuves de bonne foi
Dans le viseur des régulateurs se trouve avant tout les plus grands acteurs du secteur -Microsoft et OpenAI, Google et Anthropic, Meta - qui déboursent des centaines de millions de dollars pour mener une course à la performance des intelligences artificielles génératives. Bien qu'une partie de l'écosystème affirme que les entreprises n'ont pas besoin d'autant de capitaux pour créer leur propre version de la technologie, une course à deux vitesses est bel et bien en train de se créer, avec une barrière financière à l'entrée particulièrement élevée.
Les inquiétudes vont même au-delà de l'affrontement des modèles, puisqu'elles s'étendent aux outils nécessaires à la conception d'intelligences artificielles. Trois acteurs contrôlent de façon écrasante le marché du cloud (Amazon, Microsoft et Google), c'est-à-dire l'accès à la puissance de calcul nécessaire pour entraîner des IA, et une entreprise, Nvidia, semble incontournable dans la fourniture des puces nécessaires aux machines.
Face à cette situation, les régulateurs comptent cette fois sur l'appui des pouvoirs exécutifs. La Maison-Blanche a reçu hier les géants américains de l'IA afin d'évoquer les risques « actuels et à court terme » du développement de la technologie, et fin avril, les ministres du Numérique du G7 se sont accordés sur l'adoption d'une régulation pour prévenir les risques de l'IA. Au-delà du symbolique, ces discussions mènent à des concessions : la Maison Blanche a par exemple annoncé que sept des plus grandes entreprises d'IA ont accepté d'ouvrir partiellement leurs modèles lors de la Def Con, une des plus grandes conférences annuelles de cybersécurité, qui se tiendra en août. L'objectif : faire étudier leur fonctionnement par des experts du risque. Mais ces petites concessions n'éclipsent pas les problèmes globaux. Jusqu'ici, OpenAI, comme la plupart de ses concurrents, a refusé de fournir des informations de base sur son modèle de langage, GPT-4, que ce soit sur son fonctionnement à proprement parler ou sur le détails des données qui ont servit à son entraînement.
En Europe, le respect de la vie privée au centre des débats
Si aux Etats-Unis le débat se concentre sur la concurrence, en Europe, il penche pour l'instant du côté de la protection des données, en attendant le vote définitif de l'IA Act qui encadrera l'ensemble de l'industrie. Et pour cause : les modèles comme GPT-4 sont entraînés sur des millions de milliards de données, des « tranches de web », aspirées sans prendre en compte la protection des données personnelles ou les droits d'Europe. Les créateurs d'IA invoquent le « fair use » [l'usage raisonnable, ndlr] pour justifier leurs pratiques, mais elles opèrent bel et bien en zone grise du droit.
Fin mars, l'autorité des données italienne a mis les pieds dans le plat, sous la forme d'un coup de pression sur OpenAI, qui a servi d'avertissement à l'ensemble de l'écosystème. Elle a reproché à l'entreprise d'avoir récupéré des données personnelles comme des noms ou des dates de naissance sans demander au préalable le consentement des personnes concernées, comme prévu dans les textes. Le créateur de ChatGPT avait un mois pour montrer des améliorations sur le sujet, sous la menace d'un bannissement et de lourdes amendes.
Finalement, OpenAI s'est exécuté, et a montré des efforts jugés suffisants par l'autorité italienne, comme la création d'un formulaire pour faire supprimer les données personnelles qui apparaîtraient dans les réponses du chatbot. Cette première bataille juridique est donc déjà terminée, mais elle laisse entrevoir le chantier qui se profile. D'autres autorités européennes, comme la Cnil en France, vont rapporter les conclusions de leurs propres rapports dans les mois à venir.
Sujets les + commentés