Les Etats face au défi colossal de la sécurisation de l'intelligence artificielle

 |   |  787  mots
Il est plus que probable d'envisager avec le développement de l'intelligence artificielle certains risques comme l'apparition de nouvelles vulnérabilités et d'une utilisation des fins malveillantes dans le cyberespace
Il est plus que probable d'envisager avec le développement de l'intelligence artificielle certains risques comme l'apparition de nouvelles vulnérabilités et d'une utilisation des fins malveillantes dans le cyberespace (Crédits : DR)
Comment sécuriser l'intelligence artificielle ? C'est l'un des défis cruciaux de l'Agence nationale de la sécurité des systèmes d'information (ANSSI), qui y réfléchit déjà en changeant sa façon de travailler.

C'est l'un des plus grands défis des mois et des années à venir, sinon le plus grand de l'Agence nationale de la sécurité des systèmes d'information (ANSSI) : comment va-t-elle pouvoir sécuriser les intelligences artificielles de demain ? Selon l'ANSSI, il lui apparaît essentiel de réunir, autour de cette problématique majeure, experts, chercheurs et pouvoirs publics pour déterminer comment l'Agence et son écosystème vont pouvoir assurer leurs missions à l'avenir. Car l'IA va progressivement amener à changer de paradigme avec notamment la perte de notion de périmètre du système d'information.

Face à ce bouleversement majeur qu'est l'IA, les méthodes actuelles de l'ANSSI "ne sont ni transposables, ni efficaces car elles visent à protéger les données", a affirmé lors de la présentation du rapport annuel de 2018 de l'ANSSI le 15 avril, le sous-directeur Expertise de l'Agence, Vincent Strubel. "Nous devons revoir les objectifs que l'on se fixe", a-t-il estimé. Se pose donc déjà la question cruciale de savoir comment évaluer cette technologie avant de la sécuriser, estime l'ANSSI.

Hors du contrôle des Etats

Face aux enjeux déjà bien réels de l'IA, même si les limites et les capacités de cette technologie sont aujourd'hui encore imprécises et non maîtrisées, cette évolution du monde du numérique appelle rapidement la mise en place d'une politique de sécurité et de sûreté face à la multiplication des projets. D'autant que ces technologies sont le plus souvent développées hors du contrôle des Etats, qui n'ont donc plus la capacité de les anticiper. Car l'intelligence artificielle se donne comme objectif de doter un système de la faculté d'apprendre par lui-même des tâches complexes et potentiellement difficiles à programmer.

Il est plus que probable d'envisager avec le développement de l'IA certains risques dans le cyberespace comme l'apparition de nouvelles vulnérabilités et d'une utilisation de l'IA à des fins malveillantes. Les progrès de l'IA vont également favoriser le recours à la biologie de synthèse dans toute une panoplie de secteurs. Sans oublier les robots dotés d'une forme d'intelligence, qui pourraient, à terme, être déployés en essaim. Le mouvement de ces essaims reposant sur des algorithmes de calculs et sur l'intelligence artificielle sera très difficile à prévoir et donc à prévenir. Certains pays (Etats-unis, Chine...) nourrissent de grandes ambitions en matière de développement puis d'acquisition de systèmes autonomes. A l'inverse, l'intelligence artificielle apportera également des opportunités comme l'aide à la détection des attaques informatiques.

Aussi, la capacité de disposer d'outils de confiance, sinon souverains, sera un élément clé pour permettre le déploiement le plus sûr possible de ces technologies. La prise en compte de la sécurité dès la conception des nombreux projets ayant recours à ces nouvelles technologies apparaît comme une condition sine qua non de son acceptation sociale. Mais l'enjeu est de taille, car le champ des possibles est gigantesque : l'IA va toucher tous les domaines des activités humaines, économiques et techniques allant du transport autonome jusqu'aux interactions en langage naturel avec des outils technologiques. Par sa capacité inédite de traitement d'énormes volumes de données, l'IA va logiquement bouleverser des secteurs entiers de l'économie.

Création d'un conseil scientifique

Pour rester à l'état de l'art, notamment dans le domaine de l'intelligence artificielle, l'ANSSI, dont l'ADN est avant tout technique et scientifique, a souhaité créer en 2018 un conseil scientifique. A sa tête, Gildas Avoine, professeur en sécurité informatique et cryptographie à l'INSA de Rennes. "La création du conseil scientifique, grande nouveauté de 2018, marque la volonté d'ouverture de l'ANSSI", estime Vincent Strubel. Son activité a débuté en 2019. L'ANSSI souhaite garder un temps d'avance sur les tendances scientifiques pour entraîner avec elle une large communauté d'acteurs qui, plus que jamais, doivent s'approprier les enjeux de sécurité numérique.

Deuxième réponse à l'IA, le droit. La responsable du bureau des affaires juridiques de l'ANSSI, Adeline Lescaut, explique dans le rapport annuel de l'ANSSI, que "l'intelligence artificielle et les villes intelligentes font partie des sujets dont de nombreux aspects doivent être prévus par le droit". Elle estime d'ailleurs que "la sécurité numérique appelle une mobilisation et une spécialisation renforcées des experts juridiques". Car, selon elle, "pour pouvoir qualifier juridiquement une situation, il nous faut absolument en saisir les principes techniques, principes qui évoluent généralement plus vite que le droit". Dans ce contexte, le rythme différencié du droit et de la technique "nous oblige à fournir un effort d'anticipation permanent". Un défi non négligeable surtout quand on travaille dans une administration...

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 24/04/2019 à 22:40 :
Article pour le moins surprenant...
Tout autant que le fait qu'un précédent post dubitatif ait été allègrement supprimé dans la soirée.
a écrit le 24/04/2019 à 13:31 :
Les juristes commencent à comprendre que l'IA va les remplacer. La patrie est-elle en danger! L'IA fonctionne automatiquement à partir d'une base évolutive de règles et ne convoque pas le parlement pour y inscrire de nouvelles règles. Comme pour n'importe quel progrès technique, les sociétés humaines jugeront les résultats et les responsabilités à posteriori : une révolution pour la doctrine du contrôle à priori exercé par l'Etat français. Mettons donc rapidement l'ANSSI sous IA.
,
a écrit le 24/04/2019 à 9:40 :
L' IA, Intelligence Artificielle, 2 mots qui ne vont pas ensemble.
L'intelligence artificielle s'oppose à l'intelligence naturelle, humaine.
L'intelligence artificielle, c'est l'artificialisation des sols, le "glyphosatage" des champs, le productivisme sans conscience, destructeur, et surtout la possibilité d'armes autonomes (cependant bien programmées par de l'intelligence humaine en fonction d' intérêts particuliers, de groupes, d'États...) L'intelligence Artificielle, c'est la fin de la démocratie.
a écrit le 24/04/2019 à 8:25 :
Simple, il suffit de débrancher la prise, sécurité 100% garantie.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :