Pour une régulation agile de l'IA, afin de faire advenir une véritable décennie numérique en Europe

 |  | 1278 mots
Lecture 6 min.
L'UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l'IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l'énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant.
L'UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l'IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l'énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. (Crédits : YVES HERMAN)
OPINION. En choisissant une démarche consultative et participative, la Commission européenne a pris la bonne option pour réguler les applications de l'Intelligence artficielle (IA) car il s'agit d'un choix de société. Pour réussir, cette élaboration devra être spécifique à un champ d'application pour être "implémentable", inclusive et ouverte dans sa démarche, et sélective dans ses priorités et son séquencement. (*) Par Florian Ingen-Housz, partner au sein d'Altermind, et Victor Storchan, ingénieur en IA dans l'industrie financière.

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l'Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l'ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l'état du droit à un état de l'art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L'IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu'ils n'en ont l'habitude, plutôt que d'imposer celle-ci "par le haut". Tout comme l'ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l'IA, compte tenu de l'ambiguïté de ses définitions, de sa nature stochastique et de l'opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l'hypercroissance de l'écosystème (50% de plus de papiers soumis à NeurIPS - une des conférences majeures de la discipline - en 2019 par rapport à l'année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l'adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d'application pour être "implémentable", (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d'abord s'assurer de la juste définition de l'objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d'IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l'électricité, la chimie ou même les premiers programmes informatiques, les contours de l'IA sont moins tangibles. Ainsi, en 2013, l'Etat du Nevada a dû ainsi revoir sa définition de l'IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu'est un robot pour l'Union européenne n'est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n'acquièrent en effet pas de capacité d'autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s'assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d'algorithmes ou les robots.

Faire coopérer des acteurs très divers

L'efficacité de la régulation pour l'IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d'écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s'effectuer horizontalement et verticalement. Horizontalement d'abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d'IA. Ces derniers doivent être dotés d'outils pour améliorer leur capacité à contester la décision d'un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l'industrie.

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d'une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s'incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d'indications précises qui tranchent des compromis entre certaines notions d'éthiques comme l'équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu'une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d'anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d'acteurs), il est précieux que l'écosystème puisse collectivement expliciter les points d'incertitude qui sont sujets à l'interprétation. Cet effort de clarification permettrait d'aligner les efforts de gestion du risque dans les modèles d'IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une "soft law" pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l'esprit et l'intention.

Se concentrer sur un nombre réduit de secteurs

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d'applications sur lesquels une attention immédiate est requise. A titre d'exemple, l'UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l'IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l'énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l'innovation et un principe de précaution aveugle à la diversité des cas d'usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L'algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l'homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu'elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 26/10/2020 à 11:44 :
Oh mon dieu ils veulent reguler L'IA ?! Avec leur nullité ils vont encore détruire toute possibilité pour l'europe de faire naître un champion. Le prochain google de l'IA sera américain ou chinois. Certainement pas europeen.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :