Après d'ultimes soubresauts, engendrés par une fronde de la France, de l'Allemagne et de l'Italie, l'IA Act, un projet européen de régulation de l'intelligence artificielle (IA), a finalement été voté par l'intégralité des États membres vendredi dernier. Le texte aura ainsi suscité d'âpres débats jusqu'aux derniers jours précédant son adoption. Pour le comprendre, il faut effectuer un rapide retour en arrière.
L'IA Act voit le jour en avril 2021, soit bien avant le buzz médiatique suscité par ChatGPT. L'intelligence artificielle générative n'est donc pas du tout présente dans les esprits : il s'agit alors plutôt de légiférer sur les usages de l'IA les plus dystopiques, par exemple le crédit social à la chinoise, l'emploi d'algorithmes de reconnaissance émotionnelle sur les caméras de surveillance, ou encore les systèmes de police prédictive.
Protéger les champions européens de l'IA générative
L'émergence de l'IA générative a rebattu les cartes et conduit à adapter le texte. L'un des principaux apports de l'IA Act consiste à classer les systèmes d'intelligence artificielle en plusieurs catégories, en fonction du niveau de risque, avec des contraintes allant de zéro pour les systèmes les plus anodins à l'interdiction pure et simple pour les plus dangereux.
Pour traiter le cas spécifique de l'IA générative, une catégorie à part a notamment été ajoutée, qui couvre les « modèles de fondation », les grands logiciels capables de créer du texte ou de l'image, comme ChatGPT ou MidJourney. Elle introduit en particulier des obligations de transparence quant aux données utilisées pour l'entraînement de ces modèles, ainsi que de respect des droits d'auteur, un sujet qui suscite d'âpres débats.
Seulement, l'IA générative a fait rapidement émerger des colosses technologiques, le plus souvent américains (dont OpenAI, qui a renforcé la domination de Microsoft, ou encore la très prometteuse start-up Anthropic) mais aussi des pépites européennes, comme le français Mistral AI et l'allemand Aleph Alpha.
La minorité de blocage franco-allemande a donc exprimé sa crainte de tuer l'innovation dans l'œuf en régulant l'IA générative trop vite et trop tôt, sabordant ainsi les chances de l'Europe de générer des pointures du domaine, alors même que les marchés américains et chinois bénéficient pour l'heure d'un certain laissez-faire.
Un compromis globalement favorable à la position française
Alors que le projet de loi vient d'être voté, la manœuvre a-t-elle obtenu gain de cause, comme s'en est félicité le gouvernement français ? Dans l'ensemble, la réponse est oui, selon Eric Le Quellenec, avocat spécialisé dans l'économie numérique chez Simmons & Simmons.
« La France a notamment obtenu que le seuil de puissance informatique à partir duquel les modèles les plus puissants, susceptibles de présenter des risques "systémiques" et soumis à des contraintes beaucoup plus strictes, notamment en matière de documentation et d'évaluation, soit tellement élevé qu'il ne concerne en pratique plus que ChatGPT », note l'avocat.
Pour ces modèles, la loi introduit notamment des contraintes de protection dès la conception (privacy by design), qui, sans être insurmontables, requièrent de l'ingénierie juridique : « cela peut retarder un jeune projet en nécessitant d'y insérer quelques juristes qui doivent faire en sorte que la réglementation soit respectée. De quoi ralentir l'arrivée sur le marché d'un mois ou deux, ce qui peut être critique face à une forte concurrence internationale. »
Pour autant, la France n'a pas eu gain de cause sur tout, et a dû accepter des compromis. « L'objectif de la France était la suppression de toute régulation additionnelle pour les IA génératives, ce qu'elle n'a pas obtenu », précise l'avocat. Paris voulait aussi se donner plus de temps avant l'application de ces nouvelles dispositions, or les choses vont au contraire aller très vite : la réglementation sur les IA à haut risque arrivera normalement dès le premier trimestre 2025, pour les IA génératives ce sera au deuxième trimestre.
L'épineuse question des droits d'auteur
Dans l'ensemble, il s'agit d'une loi plutôt équilibrée, selon Jean-Baptiste Bouzige, Président et fondateur d'Ekimetrics, spécialiste français de la science des données et de l'IA. « La philosophie globale du texte reste inchangée, il s'agit d'une loi volontariste qui propose de réguler ex ante plutôt qu'a posteriori, qui tient bien compte des risques inhérents à l'IA et entend capitaliser sur la puissance normative européenne. »
Là où l'opposition de la France a un temps fait craindre que le projet soit au mieux intégralement vidé de sa substance, au pire jeté aux oubliettes, il n'en est donc finalement rien.
Les entreprises d'IA génératives seront par exemple tenues à la transparence des données utilisées pour leurs modèles, bien que Paris ait obtenu à la dernière minute l'inscription du respect du « secret des affaires » dans la loi. Cette dimension est particulièrement critique pour les industries culturelles, les artistes dénonçant l'usage de leurs œuvres par les start-ups pour entraîner des algorithmes d'IA générative sans leur consentement. À l'inverse, la transparence ouvre la voie à une rémunération de ces derniers.
« Quand un algorithme fonctionne comme une boîte noire, on peut difficilement attribuer une quote-part des revenus aux ayants droit. La loi devrait donc faciliter les choses », note Jean-Baptiste Bouzige. Une manière d'anticiper les problèmes qui pourrait bénéficier à tout le monde, y compris aux acteurs de la tech. « Les États-Unis commencent déjà à avoir des procès sur les droits d'auteur et l'IA générative, une loi proactive en la matière comme l'AI Act doit inciter les entreprises technologiques à éviter ce type de casse-tête juridique en amont. »