Pas d'intelligence artificielle éthique sans humains éthiques

Lors des débats théoriques tenus à Davos, les participants ont donné l'impression qu'il était possible de créer une IA qui serait intrinsèquement bonne, ou, à tout le moins, incapable de faire le mal. Il s'agit là d'une erreur de raisonnement évidente. Par Garry Kasparov, ancien champion du monde d'échecs, ambassadeur de sécurité d'Avast.
Le 18 mai 2019 au 72e Festival de Cannes, l'ancien champion du monde d'échecs Garry Kasparov pose pour la sortie de la série en manga Blitz, centrée sur le jeu d'échecs, dont il a assuré la supervision et dont il est un élément clé du scénario.
Le 18 mai 2019 au 72e Festival de Cannes, l'ancien champion du monde d'échecs Garry Kasparov pose pour la sortie de la série en manga "Blitz", centrée sur le jeu d'échecs, dont il a assuré la supervision et dont il est un élément clé du scénario. (Crédits : Reuters)

Davos 2019, la réunion annuelle du Forum économique mondial, a eu lieu en janvier dernier dans la ville suisse du même nom. Comme on pouvait s'y attendre, l'intelligence artificielle (IA) s'est imposée comme l'un des principaux sujets de discussion (pas moins de 40 sessions lui ont été consacrées, ce qui la plaçait au deuxième rang, juste derrière le commerce entre les États-Unis et la Chine). Cependant, la majeure partie des débats ont porté sur la structuration de principes abstraits concernant l'importance de l'éthique en matière d'IA ou, au mieux, sur la nécessité d'une collaboration et de recherches dans ce domaine.

Nous sommes au stade où il faut arrêter de discuter et agir

Il me semble primordial d'insister sur l'importance de formuler les problèmes auxquels, selon toute vraisemblance, nous serons confrontés à mesure que l'intelligence artificielle prendra de l'ampleur, tant en termes de performances que de portée. Tôt ou tard, l'IA aura une incidence sur le monde, et pas seulement sur Internet. Nous avons atteint un stade où il est nécessaire d'agir, et non de rester assis à discuter.

Multiplier les grandes envolées philosophiques sans proposer de procédures concrètes de mise en œuvre ou d'application de ces idées est un moyen pour les entreprises de ne s'attaquer qu'à la surface du problème, tout en évitant de faire quoi que ce soit qui pourrait avoir un impact négatif sur leurs bénéfices.

Comment allons-nous intégrer l'IA à notre monde, question cruciale

L'éthique, tout comme la sécurité, doit être bien plus qu'un simple ressort publicitaire.

Certains des points soulevés à Davos font écho aux sentiments que j'ai exprimés par le passé. Ils sont intéressants dans la mesure où ils font office de diagnostic de l'impact que l'IA pourrait avoir sur les entreprises et sur la société en général. L'un des points de vue que je partage depuis des années au regard d'un sentiment de plus en plus méfiant vis-à-vis de la technologie, qui est perçue sous un jour dystopique, est que l'intelligence artificielle est agnostique. J'ai été heureux d'entendre Marc Benioff, PDG de Salesforce, le souligner. La question de savoir de quelle façon nous allons intégrer cette technologie dans notre monde est d'autant plus cruciale lorsque nous prenons toute la mesure de cette caractéristique fondamentale.

L'IA nous donnera un immense pouvoir. Pour le pire ou le meilleur

Elle nous donnera un immense pouvoir, pour le pire ou pour le meilleur, de la même façon que la fission d'un atome peut générer une énergie qui nous est utile ou créer une bombe dévastatrice.

Lors des débats théoriques tenus à Davos, les participants ont donné l'impression qu'il était possible de créer une IA qui serait intrinsèquement bonne, ou, à tout le moins, incapable de faire le mal. C'est un peu comme croire que nous pouvons élever un enfant de cette façon : il s'agit là d'une erreur de raisonnement évidente.

L'éthique ne fonctionne pas comme les échecs

Bien sûr, les êtres humains ont leur libre arbitre, alors que l'intelligence artificielle n'en montre aucun signe, peu importe l'autonomie que nous lui accordons. Mais l'éthique ne fonctionne pas comme les échecs. Il nous est impossible de simplement concevoir des machines qui seraient plus éthiques que nous - contrairement à un informaticien qui pourrait créer un programme d'échecs qui y jouerait bien mieux que de vrais joueurs. L'une des clés est d'utiliser ces machines pour mettre au jour nos préjugés d'êtres humains afin que nous puissions nous améliorer et rendre notre société meilleure grâce à un cercle vertueux.

Mais reconnaître nos préjugés n'est que le premier pas. Les chefs d'entreprise et les chargés de stratégie se doivent d'adapter leurs pratiques — et d'engager un conseiller en éthique et déontologie, comme l'a fait récemment Salesforce dont je salue le geste. Idéalement, le comportement éthique est également rentable, mais, si ce n'est pas le cas, il doit être imposé - au sens même de la loi - et c'est cela que les entreprises appréhendent.

Atouts et faiblesses de l'intelligence artificielle

L'importance que revêt la coopération des êtres humains avec l'intelligence artificielle représente un autre thème abordé à plusieurs reprises lors du Forum économique mondial. Comme je l'ai longuement expliqué dans mon livre, Deep Thinking, la technologie fonctionne mieux lorsque les êtres humains y sont associés. Jusqu'ici, l'intelligence artificielle n'a pas montré qu'elle était en mesure de les surpasser en matière de créativité ou de discernement. Ses points forts sont l'assimilation de grandes quantités de données, le suivi des tendances et l'établissement de prévisions, et non la capacité à identifier ses propres préconceptions ou l'interprétation de contextes sociaux nuancés.

Pourquoi les réseaux sociaux emploient des êtres humains

Les entreprises l'ont bien compris. C'est pour cette raison que les réseaux sociaux emploient des êtres humains dont la tâche consiste à s'assurer que les algorithmes de filtrage de l'information fonctionnent comme prévu. De même, les professionnels de la santé, grâce à leur connaissance plus directe du dossier de leurs patients, devront toujours confirmer les recommandations formulées par les systèmes d'intelligence artificielle. Un système de services automatisés ne remplacera pas autant le travail des êtres humains qu'il leur permettra de disposer de plus de temps pour résoudre des problèmes qui échappent à l'IA. Et la portée de cette dernière ne fait que grandir — nous formons nos remplaçants dans les règles de l'art — et nous devons donc rester ambitieux dans nos objectifs afin de rester à la pointe du progrès.

Dès lors, comment les chefs d'entreprise et les décisionnaires peuvent-ils appliquer ces enseignements ? Je doute que les stratégies mises en place par la majorité de l'industrie technologique soit suffisante pour susciter un changement significatif. Selon ce modèle, les organisations, si elles ne font l'objet d'aucun contrôle, devront prendre des mesures de leur propre chef pour minimiser les inconvénients ainsi que les dangers potentiels de l'IA. Certaines de ces actions nécessaires auront sans doute des conséquences négatives sur les bénéfices de ces entreprises, et nous avons trop souvent vus les géants de la Silicon Valley donner la priorité aux intérêts de leurs actionnaires.

Quand il devient nécessaire de légiférer et de superviser

Voici le dernier exemple en date : même après des années d'examen minutieux de ses pratiques, Facebook a admis avoir payé des adolescents 20 dollars par mois pour l'installation d'une « application de recherche » destinée à télécharger l'ensemble du contenu de leur téléphone ainsi que de leur activité sur Internet. Il est difficile d'avoir foi en des entités de ce genre qui trahissent si régulièrement la confiance du grand public. Je suspecte que, dans le monde de l'IA aussi, on ne puisse espérer rien de mieux que des mesures tièdes qui relèveront du coup médiatique mais qui ne conduiront à aucun changement significatif en termes de comportement.

Cela signifie que les autorités publiques auront, tôt ou tard, un rôle à jouer dans ce domaine, dans la limite du raisonnable. On peut comparer — sans risque d'exagérer, il me semble — la situation actuelle à celle du XIXe siècle qui a vu émerger le règne des rois du rail et des titans de la finance. À cette époque-là aussi, les intérêts en jeu étaient tout simplement trop écrasants et incompatibles avec le bien commun ; l'initiative de Teddy Roosevelt de morceler les compagnies fiduciaires a été une réponse appropriée.

Bien que je sois loin d'être partisan d'un modèle de gouvernance trop puissant — j'ai été le témoin des pires abus du genre en tant que citoyen soviétique — il y a des situations dans lesquelles il est nécessaire de légiférer et de superviser. L'OCDE a déjà commencé à organiser des conférences sur l'intelligence artificielle afin de réunir autour de la même table les acteurs de l'industrie, du monde académique et des gouvernements.

Il n'a jamais été question de « machine à vapeur éthique »

La notion d'« intelligence » dans l'expression « intelligence artificielle » ne suffit pas à la rendre plus éthique que les autres technologies. Il n'a jamais été question de « machine à vapeur éthique » ou de « radio éthique » ; il ne peut être question que d'une utilisation éthique des technologies, ce qui exige la mise en place de normes et de réglementations. Nous sommes encore bien en retard en ce qui concerne un « Internet éthique », du fait de violations qui dépassent et devancent les normes et les législations. Cela ne signifie pas pour autant que nous devons baisser les bras ; seulement que nous devons consentir plus d'efforts et accomplir un meilleur travail.

Abandonner la réglementation au privé serait une erreur fondamentale

Les politiciens américains commencent à voir l'importance de ce débat, bien que tardivement. La jeune et populaire représentante au Congrès, Alexandria Ocasio-Cortez, a tweeté récemment sur les dangers des biais de l'IA, capable d'amplifier les conjectures humaines à un niveau sans précédent.

Le gouvernement de Singapour est allé plus loin : il a publié un cadre sur l'éthique de l'intelligence artificielle pendant le sommet de Davos, avec des lignes directrices destinées au secteur privé sur la manière de mettre en œuvre les technologies de l'IA de façon transparente, responsable, et axée sur l'humain. Singapour dispose de l'un des environnements les plus favorables aux affaires au monde, mais ses dirigeants reconnaissent que la croissance à long terme repose sur la promotion et l'application de normes claires. Fondamentalement, les entreprises aspirent à la stabilité nécessaire pour formuler des prévisions sur les performances futures. Abandonner la responsabilité de la réglementation au seul secteur privé ne fait qu'embourber le terrain dans l'incertitude, ce qui n'est pas une bonne chose pour les législateurs, les investisseurs et les consommateurs.

La leçon du piratage massif de données baptisé « Collection #1 »

Certes, les cadres directeurs sont un bon point de départ, mais quelles sont les solutions pratiques ? L'une des possibilités, qui me vient à l'esprit suite à la violation massive des données baptisée « Collection #1 », serait de créer un service gouvernemental centralisé qui avertirait les personnes dont les comptes en ligne ont été piratés. Des tentatives de mise en place de ce dispositif ont déjà eu lieu çà et là - avec un certain succès. L'idéal serait d'y ajouter la crédibilité, voire l'autorité, d'une vigie publique à plus ou moins long terme. Imaginez à quel point un tel système de notification pourrait aider les gens à limiter les dégâts causés par le vol d'informations, à mettre en exergue le sérieux du problème, et à prendre des mesures préventives contre ces attaques.

Comme toujours, je conclus par une note sur la prudence et la responsabilité individuelle — puisqu'au fond, c'est au consommateur qu'il revient en premier lieu de protéger ses données numériques, d'autant plus que l'IA continue de progresser rapidement alors que les cadres réglementaires ont du mal à rattraper leur retard.

« N'espérez toujours que le meilleur, mais soyez prêts pour le pire »

Faites les petits gestes que vous pouvez contrôler. Ou, pour le formuler selon le célèbre proverbe, « N'espérez toujours que le meilleur, mais soyez prêts pour le pire ». Il est possible de réduire sa vulnérabilité face aux pirates en se servant d'un gestionnaire de mots de passe, en n'utilisant jamais le même mot de passe, et en se méfiant des emails qui réclament des informations relatives aux comptes. Recycler son mot de passe lorsque les violations de données sont inévitables, c'est comme avoir une seule clé pour sa voiture, sa maison et son compte en banque.

Comme l'a montré Davos 2019, les dirigeants politiques et économiques ont encore des difficultés à décider comment contrôler au mieux le monde numérique — et je suis suffisamment réaliste pour croire que ce ne sont peut-être pas les intérêts du grand public qu'ils ont à cœur de protéger. Dans le climat actuel d'évolution technologique rapide, j'encourage tout un chacun à rester optimiste quant aux possibilités qu'offrent l'IA et les autres technologies innovantes, tout en restant vigilant dans la manière d'interagir avec ces nouveaux outils.

Sujets les + lus

|

Sujets les + commentés

Commentaires 5
à écrit le 29/08/2019 à 9:25
Signaler
CQFD Merci beaucoup cela fait très longtemps que j'attends que ces sages paroles soient prononcées, vraiment très longtemps alors que pourtant logiques. Pas étonnant que cela vienne d'une personne intelligente mais à se demander quand même où...

à écrit le 28/08/2019 à 13:40
Signaler
Bonjour , Logique : pas de IA éthique sans humain éthique «  comme » pas de «  données data exploitables » sans humain «  humain » Toutes vos bases de données «  sont caduques » car l’homme est en évolution avec la révolution numérique , c’est trop...

à écrit le 28/08/2019 à 13:14
Signaler
"Il est possible de réduire sa vulnérabilité face aux pirates en se servant d'un gestionnaire de mots de passe, en n'utilisant jamais le même mot de passe, ..." : on ajoute qu'on doit normalement changer ses mdp tous les 6 mois minimum et hop, voilà ...

à écrit le 28/08/2019 à 10:55
Signaler
Quand l'Hitlérisme cherchait à faire une jeunesse plus saine et mieux bougée, il avait raison..., mais par contre, en voulant imposer cette race "unique" au monde, il avait totalement tort ! Une intelligence artificielle éthique lui aurait fait comp...

à écrit le 28/08/2019 à 10:32
Signaler
l'ai ne fait pas de morale ou d'tehique elle fait du calcul massif de derivees partielles ce qui est ethique ou pas c'est ' quel est le pb a resoudre' et ' comment on pose le pb' le reste c'est du flan

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.