IA, Big Data, IoT... Plaidoyer pour la création de conseils nationaux d'éthique numérique

 |   |  1568  mots
Sun Sun Lim est députée au Parlement de Singapour, professeur de communication et technologie, et responsable du département d'humanité, arts et sciences sociales. Roland Bouffanais est professeur associé en sciences de l'ingénieur. Tous deux sont professeurs à la Singapore University of Technology and Design (SUTD) à Singapour.
Sun Sun Lim est députée au Parlement de Singapour, professeur de communication et technologie, et responsable du département d'humanité, arts et sciences sociales. Roland Bouffanais est professeur associé en sciences de l'ingénieur. Tous deux sont professeurs à la Singapore University of Technology and Design (SUTD) à Singapour. (Crédits : DR)
OPINION. Face à des processus technologiques d'une complexité qui dépasse considérablement le champ d'application des lois éthiques actuelles (notamment l'IA capable désormais de s'autoprogrammer), il est urgent que les nations du monde entier mettent en place des comités consultatifs compétents. Les politiques devraient y côtoyer des experts issus du monde universitaire et technologique, et de l'industrie, à même de comprendre les enjeux afin de proposer de nouveaux cadres réglementaires. Par Sun Sun Lim, députée nominée au Parlement de Singapour, et Roland Bouffanais, tous deux professeurs à la Singapore University of Technology and Design (SUTD) à Singapour (*).

Au-delà des succès de Singapour -tant au niveau économique qu'en matière d'éducation-, il y a bien d'autres raisons de regarder avec intérêt ce que fait la cité-État. Récemment, le gouvernement de Singapour a annoncé son intention de créer un nouveau conseil consultatif sur l'utilisation éthique de l'intelligence artificielle et des données. La mise en place d'un tel organe consultatif est urgente car l'intelligence artificielle (IA), le « Big Data » (ou méga-données), l'apprentissage automatique et l'Internet des objets (IoT) sont de plus en utilisés à Singapour car son ambition est de devenir une « nation intelligente » (Smart Nation).

En dehors de Singapour, le débat sur l'utilisation éthique de ces technologies prend rapidement de l'ampleur à travers le monde. On évoque des scénarios cauchemardesques d'utilisation de l'intelligence artificielle sans aucune référence morale comme autant de preuves du célèbre adage « Science sans conscience n'est que ruine de l'âme ».  Des articles sur des véhicules autonomes mutilant de malheureuses victimes ou décrivant des robots d'usine faisant des ravages, alimentent les peurs viscérales de la population. Pourtant, l'impact de l'IA est souvent beaucoup moins dramatique, mais cependant beaucoup plus insidieux et de plus en plus répandu. Il existe trois raisons importantes pour lesquelles les nations à travers le monde doivent rapidement mettre en place des organes consultatifs veillant à la collecte et aussi à l'utilisation éthique des données par des algorithmes d'IA.

Complexité croissante des technologies associées à l'IA

Premièrement, alors que de nombreux pays ont promulgué des lois centrées sur la protection des données à caractère personnel et concernant la vie privée, la complexité croissante des technologies associées à l'IA exige une surveillance réglementaire plus robuste et surtout plus élaborée. Demandez simplement à un chercheur travaillant dans le domaine de l'IA de vous fournir une explication simple du fonctionnement du « Deep Learning », vous verrez que ce n'est pas chose aisée, même à un niveau élémentaire. Cela n'est pas surprenant étant donné que la puissance du « Deep Learning » est le résultat d'un processus complexe visant à reproduire l'activité neuronale du cerveau humain. De tels processus technologiques complexes dépassent considérablement le champ d'application des lois éthiques actuelles, de même que les compétences de décideurs politiques. Cependant, il serait tout à fait possible de mettre en place un comité consultatif compétent, comportant des experts issus du monde universitaire et technologique, et de l'industrie, à même de comprendre les enjeux et de proposer des cadres réglementaires.

L'IA sur la voie de l'autoprogrammation

Deuxièmement, l'intelligence artificielle n'est plus issue d'un processus de création centré sur l'homme, mais elle est créée par un processus d'auto-conception (« self design »). Le « Deep Learning » repose essentiellement sur le fait qu'il se programme lui-même, soulageant ainsi les équipes de programmeurs humains des tâches élémentaires de développement et de codage des algorithmes pour les systèmes que nous utilisons et avec lesquels nous interagissons quotidiennement.

Avec des systèmes autoprogrammés, il est fort probable que les systèmes génèrent des erreurs qui passent inaperçues et donc restent non rectifiées pour une durée plus ou moins longue. En effet, il est tout à fait envisageable qu'une erreur réelle demeure non détectée par de tels systèmes pilotés par l'intelligence artificielle : si les développeurs ne peuvent pas appréhender complètement la manière dont le système traite les données, comment pourraient-ils faire la distinction entre une erreur et une solution légitime mais inattendue ? La question se pose de savoir comment penser les architectures technologiques afin d'éviter ces problèmes susceptibles d'avoir un impact pernicieux et important.

Le problème des biais inhérents aux mégas données

Troisièmement, un problème primordial avec l'IA concerne les biais inhérents aux « Big Data » qui nourrissent les algorithmes. Ces derniers sont largement utilisés dans divers secteurs, notamment pour déterminer les placements financiers, les emprunts bancaires, le processus d'admission des universités, les taux d'assurance, les couvertures santé, les prix de vente de certains biens, etc. Des distorsions dans les données peuvent conduire à des algorithmes défectueux qui établissent une discrimination injuste à l'égard de certains segments de la société, avec des conséquences négatives, tangibles et parfois irréversibles.

Comme de nombreux critiques l'ont fait remarquer, le problème le plus flagrant des méga-données (« Big Data ») est l'absence d'une boucle de rétroaction négative qui signale qu'un algorithme doit être affiné parce qu'il ne prend pas en compte les différences individuelles qui le rendent inadéquat ou totalement erroné.

Un nouvelle gouvernance bien au-delà du mandat de la CNIL

À l'ère des « Big Data » et de l'apprentissage automatique, les recours individuels en cas d'erreur sont pratiquement inexistants. Cette « violence des données » peut être exacerbée par le fait que les firmes à la pointe de la technologie rassemblent des données avec une ampleur sans précédent, à un rythme sans précédent. Plus inquiétant encore, une grande partie des « Big Data » est désormais entre les mains de puissantes entreprises, indépendantes de la volonté de tout État. Hormis le Royaume-Uni, qui a récemment mis en place un centre pour l'éthique des données et l'innovation, et le groupe consultatif pour l'éthique de l'Union européenne, aucun autre pays n'a mis en place un organe consultatif de l'éthique des données au niveau national.

La France a pris conscience du besoin pressant d'un nouveau mode de gouvernance de notre univers numérique qui va bien au-delà du mandat et des prérogatives actuelles de la Commission nationale de l'Informatique et des Libertés (CNIL). Le gouvernement Français a organisé en 2017 une mission de réflexion éthique animée par la CNIL avec un débat publique intitulé « Comment permettre à l'homme de garder la main ? ».

Pour Isabelle Falque-Pierrotin, présidente de la CNIL, « l'objectif de ce débat était de garantir que l'intelligence artificielle augmente l'homme plutôt qu'elle ne le supplante et participe à l'élaboration d'un modèle français de gouvernance éthique de l'intelligence artificielle. Nous devons collectivement faire en sorte que ces nouveaux outils soient à la main humaine, à son service, dans un rapport de transparence et de responsabilité. »

Un modèle pour les nations engagées dans la course à l'IA

Le mathématicien Cédric Villani, député, chargé par le gouvernement d'une mission sur l'intelligence artificielle, est venu à Singapour en juin 2018 pour présenter les problématiques et recommandations opérationnelles développées dans le rapport de synthèse de la CNIL en relation avec ce débat public sur les algorithmes et l'IA. Lors de ce déplacement, Cédric Villani n'a pas manqué de rappeler le besoin de règles éthiques dans ce domaine. Par conséquent, la décision stratégique de Singapour en août 2018 de mettre en place un conseil consultatif sur les données et l'intelligence artificielle constitue un modèle pour les autres nations engagées dans la course à l'IA. Étant donné le travail monumental mené par la CNIL et Cédric Villani lors de cette réflexion éthique, et les recommandations émises, il reste à souhaiter que la France emboîte le pas à Singapour avec la constitution de ce qui pourrait être un Conseil consultatif national d'éthique numérique.

Des lampadaires pour gérer le trafic ou faire de la reconnaissance faciale

Des données volumineuses, voire massives, ont commencé à prendre une importance croissante dans le fonctionnement et la gestion quotidiens de toutes les sociétés connectées numériquement. Singapour, en particulier, développe activement son infrastructure numérique et physique pour prendre en charge l'Internet des objets : ainsi des réseaux de lampadaires intelligents recueillent des informations sur les conditions météorologiques et d'autres phénomènes physiques ; ils peuvent également participer à la reconnaissance faciale en temps réel et suivre le trafic humain et automobile. Ces réseaux de capteurs, combinés aux flux d'informations numériques qui transitent par des sociétés hyper-connectées, généreront d'énormes quantités de données pouvant être utilisées par les organisations publiques et privées. Il est donc impératif que la prudence dans l'utilisation des données soit de mise et que soit mis en place un système empêchant les violations et les abus.

 Surveillance indispensable des technologies reposant l'IA

Alors que la quatrième révolution industrielle avance inexorablement en France, à Singapour et à travers le monde entier, les États doivent donc aller au-delà des simples directives pour mettre en place des organes consultatifs agiles et proactifs capables d'assurer la surveillance indispensable des technologies de plus en plus répandues reposant sur l'intelligence artificielle. L'expérience de Singapour pourrait probablement fournir des indications sur la gouvernance efficace de l'éthique, de l'IA et du « Big Data », utiles pour les autres pays.

___

LES AUTEURS

(*) Roland Bouffanais est professeur associé en sciences de l'ingénieur. Sun Sun Lim est députée nominée au Parlement de Singapour, professeur de communication et technologie, et responsable du département d'humanité, arts et sciences sociales. Ils sont tous deux professeurs à la Singapore University of Technology and Design (SUTD) à Singapour.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 13/01/2019 à 21:55 :
Les scientifiques sont parfaitement conscients des risques à mon sens pour l’IA ( les champs magnétiques, certains phénomènes inexplicables...)

Il faudrait pour «  moins de risque » ne pas permettre l’auto- programmation sans vérification et sans déverrouillage «  par un code » donné à «  un responsable « ( personne morale et physique)

Moi ce qui m’inquiète le «  plus » dans le futur : ce sont les drones «  non contrôlés «  des drones tueurs ...

L’autorité éthique s’ils n’arrivent pas à mettre une réglementation, c’est le même principe que les ventes d’armes finalement.

Les vendeurs ( fabriquant )sont autant « responsables « que ceux qui utilisent ces outils pour finir le cours de «  vie » d’autrui : c’est de la «  violence barbare avec une technologie sophistiquée « .
a écrit le 13/01/2019 à 13:59 :
Vous pouvez créer tous les comités de contrôle de ce que vous voulez mais en aucun cas avec de l'argent ou des nouvelles taxes sur les entreprises.
Merci.
a écrit le 13/01/2019 à 9:11 :
les profs n'arrivent jamais a expliquer clairement ce que sont les choses ( les raisons on les connait)
on avait un ami doyen d'une fac de maths, on lui a dit ' les choses bien concues s'enoncent clairement et les mots pour le dire viennent aisement' ( boileau)
il a eu une revelation!
je vais vous aider
l'AI actuelle, vous prenez des donnees,beaucoup ( big data), et vous demandez a un ordinateur de calculer des trucs dessus ( machine learning), par exemple ' avec mes donnees cet homme a t il une probabilite d'avoir un cancer de la prostate'
pour traiter ces masses de donnees on utilise des modeles tres compliques, empiles les uns sur les autres ( deep learning)
y a 30 ans, on avait deja des modeles empiles (counterpropagated nets, empilage kohonen mlp, etc) mais c'etait moins sexy et moins vendeur que LeNet vu que FB n'existait pas
les modeles qui peuvent ecrire leur propre code en python, ca me fait sourire, le pb n'est pas la
quant au fait que le reseau ne voit pas les problemes individuels..... euh oui, effectivement, les reseaux sont programmes pour voir ' les grandes masses'.....c'est lie aux outils utilises, a la facon dont ils sont programmes, et surtout a la philosophie sous jacente ( ce qui suppose qu'on ait fait pas mal de maths avant, ce qui n'est plus le cas des datascientists auxquels on demande juste de taper des jolis codes en python)
y a d'autres domaines qui permettent de voir des choses, et les outils sont deja prets, mais les gens qui n'ont pas fait l'etat de l'art et ne maitrisent qu'une technologie finissent par reinventer la roue.........
a titre perso je rigole quand je vois les evolutions des modeles LSTM, ou certains reinventent avec brillo ce qu'on faisait presque ' a la main' avant, dans des domaines ou a priori ils n'ont pas ete formes!! quelle perte de temps!

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :