Si c'est gratuit, c'est que vous êtes le produit !

Par Philippe Mabille  |   |  973  mots
(Crédits : Pixabay)
[Édito] Demain, l'intelligence artificielle occupera une place prépondérante dans nos vies et notamment dans les questions de sécurité. L'urgence est donc de relever le défi juridique inhérent à cette technologie, alors que le patron de Facebook Mark Zuckerberg doit rendre des comptes devant le Congrès américain ce mardi, à la suite de l'affaire Cambridge Analytica. Un scandale de plus sur les données personnelles qui a révélé la naïveté dont nous avons tous fait preuve à l'égard des nouveaux outils technologiques. Par Philippe Mabille, directeur de la rédaction.

« Il ne faudrait pas que tous les acteurs de l'intelligence artificielle soient, à mon image, des mâles blancs quadragénaires formés dans les universités américaines ou européennes. » En quelques mots, présentant le 29 mars la stratégie française pour l'IA au Collège de France, Emmanuel Macron a mis le doigt sur le principal danger : celui d'une captation des nouvelles technologies par une vision hégémonique et conformiste.

L'une des solutions pour contrer cette dérive d'un futur dystopique est de mettre l'accent sur la diversité des chercheurs en intelligence artificielle. Il faut donc former beaucoup plus de femmes pour s'assurer que l'IA n'ait pas un biais sexiste et veiller à la diversité des origines des équipes de recherche. Comme le dit le rapport Villani (intitulé "Donner un sens à l'intelligence artificielle"), le manque de mixité et de diversité constaté peut si l'on n'y prend garde conduire « les algorithmes à reproduire des biais cognitifs souvent inconscients dans la conception des programmes, l'analyse des données et l'interprétation des résultats ». Il y a pire. Début 2016, un robot conversationnel développé par Microsoft est devenu raciste en se connectant aux réseaux sociaux.

Mark Zuckerberg cherche t-il à gagner du temps ?

L'affaire Cambridge Analytica, qui vient de frapper au cœur l'empire Facebook, est une autre illustration du danger que fait peser sur la démocratie notre naïveté à l'égard des nouveaux outils technologiques. Soyons bienveillants à l'égard de Mark Zuckerberg lorsqu'il nous assure que Facebook ne pensait qu'à faire le bien en rendant possible l'interconnexion de millions de personnes (et même de plus de 1 milliard) et en les rendant "accros" au partage d'informations.

Mais les faits sont têtus : le réseau social n'a rien pu faire contre le vol des données de dizaines de millions d'utilisateurs et la mise en place de stratégies de manipulations politiques de masse. Zuckerberg est peu crédible lorsqu'il affirme qu'il faudra « des années pour réparer Facebook » et empêcher que cela se reproduise. Soit c'est très complexe et cette impuissance est encore plus inquiétante, soit Facebook fait montre d'une mauvaise volonté suspecte dont il est permis de se demander s'il ne s'agit pas de gagner du temps pour ne pas tuer la poule aux œufs d'or de la publicité en ligne.

Tim Cook, le patron d'Apple, ne s'est pas privé de critiquer le modèle économique de Facebook, centré sur la monétisation des données personnelles. « Si c'est gratuit, c'est que vous êtes le produit » : la formule popularisée par Bruce Willis est en train de tourner à la prise de conscience planétaire.

L'IA, des technologies qui vont entrer dans notre intimité

Le défi posé par l'IA, ce n'est pas tant le mythe de la Singularité évoqué par les fous furieux de la Silicon Valley que celui de l'IA dite « faible », celle des algorithmes de tous les jours, « qui affectent notre accès à l'information, à la culture, à l'emploi ou encore au crédit », a souligné Cédric Villani. Et c'est d'autant plus dangereux qu'à la vérité - tous les chercheurs le reconnaissent - nous ne savons pas ce qui se passe à l'intérieur des algorithmes que l'on est en train d'entraîner à apprendre par eux-mêmes.

L'IA dans nos vies, demain, ce ne sera pas seulement des services aussi utiles que des assistants personnels intelligents, des systèmes de reconnaissance vocale comme Siri ou Alexa, des traducteurs automatiques. Ce seront des technologies qui vont entrer dans notre intimité, interférer avec notre éducation, nos déplacements, nos finances personnelles, notre santé... Mais aussi la police ou la justice prédictive voire de nouvelles façons de faire la guerre, avec des soldats "augmentés" ou des armes létales autonomes, théoriquement interdites.

Un "Giec de l'IA" à la hauteur des enjeux ?

Il faudra encadrer les dérives potentielles, mais « franchement, on ne sait pas» comment le faire, confie Cédric Villani. Le mathématicien se contente de proposer la création d'un « comité d'éthique en intelligence artificielle » et d'un « observatoire sur la non-prolifération des armes autonomes ». Quand on pense à la difficulté d'empêcher la prolifération des armes nucléaires, le rapprochement fait froid dans le dos. Emmanuel Macron appelle à une "éthique de l'IA" et propose de créer un "Giec de l'IA", sur le modèle du groupement de scientifiques chargés du climat. Sauf que, si ces derniers ont su nous avertir du danger, le rôle du Giec se limite à celui de lanceur d'alerte : ce n'est pas lui qui empêchera la planète de succomber au réchauffement. Ce sera la responsabilité des politiques. Et de fait, si un Giec de l'IA voit le jour, il ne s'agirait que de disposer d'« une expertise mondiale et indépendante pour organiser le débat démocratique de manière autonome », selon Emmanuel Macron. On ne voit pas bien en quoi il pourrait garantir que « nos démocraties ne succomberont pas à un syndrome orwellien où la technologie devient une forme d'instance de contrôle ».

Le sujet sera mis au menu du prochain sommet du G20, en Argentine. Mais il est à craindre que cet appel à la régulation ne reste incantatoire. Le risque est double. D'abord, celui d'une révolte, déjà à l'oeuvre, contre les technologies, au risque de freiner l'innovation. Le danger inverse est une forme de résignation où nous, le « produit », nous laisserions les géants de la technologie nous imposer un futur auquel nous ne comprenons rien. C'est tout l'enjeu du nouveau Règlement général sur la protection des données (RGPD) que de redonner à l'individu des outils pour tenter de reprendre la maîtrise de sa vie numérique qui va de plus en plus se confondre avec sa vie tout court.