Si c'est gratuit, c'est que vous êtes le produit !

[Édito] Demain, l'intelligence artificielle occupera une place prépondérante dans nos vies et notamment dans les questions de sécurité. L'urgence est donc de relever le défi juridique inhérent à cette technologie, alors que le patron de Facebook Mark Zuckerberg doit rendre des comptes devant le Congrès américain ce mardi, à la suite de l'affaire Cambridge Analytica. Un scandale de plus sur les données personnelles qui a révélé la naïveté dont nous avons tous fait preuve à l'égard des nouveaux outils technologiques. Par Philippe Mabille, directeur de la rédaction.
Philippe Mabille

« Il ne faudrait pas que tous les acteurs de l'intelligence artificielle soient, à mon image, des mâles blancs quadragénaires formés dans les universités américaines ou européennes. » En quelques mots, présentant le 29 mars la stratégie française pour l'IA au Collège de France, Emmanuel Macron a mis le doigt sur le principal danger : celui d'une captation des nouvelles technologies par une vision hégémonique et conformiste.

L'une des solutions pour contrer cette dérive d'un futur dystopique est de mettre l'accent sur la diversité des chercheurs en intelligence artificielle. Il faut donc former beaucoup plus de femmes pour s'assurer que l'IA n'ait pas un biais sexiste et veiller à la diversité des origines des équipes de recherche. Comme le dit le rapport Villani (intitulé "Donner un sens à l'intelligence artificielle"), le manque de mixité et de diversité constaté peut si l'on n'y prend garde conduire « les algorithmes à reproduire des biais cognitifs souvent inconscients dans la conception des programmes, l'analyse des données et l'interprétation des résultats ». Il y a pire. Début 2016, un robot conversationnel développé par Microsoft est devenu raciste en se connectant aux réseaux sociaux.

Mark Zuckerberg cherche t-il à gagner du temps ?

L'affaire Cambridge Analytica, qui vient de frapper au cœur l'empire Facebook, est une autre illustration du danger que fait peser sur la démocratie notre naïveté à l'égard des nouveaux outils technologiques. Soyons bienveillants à l'égard de Mark Zuckerberg lorsqu'il nous assure que Facebook ne pensait qu'à faire le bien en rendant possible l'interconnexion de millions de personnes (et même de plus de 1 milliard) et en les rendant "accros" au partage d'informations.

Mais les faits sont têtus : le réseau social n'a rien pu faire contre le vol des données de dizaines de millions d'utilisateurs et la mise en place de stratégies de manipulations politiques de masse. Zuckerberg est peu crédible lorsqu'il affirme qu'il faudra « des années pour réparer Facebook » et empêcher que cela se reproduise. Soit c'est très complexe et cette impuissance est encore plus inquiétante, soit Facebook fait montre d'une mauvaise volonté suspecte dont il est permis de se demander s'il ne s'agit pas de gagner du temps pour ne pas tuer la poule aux œufs d'or de la publicité en ligne.

Tim Cook, le patron d'Apple, ne s'est pas privé de critiquer le modèle économique de Facebook, centré sur la monétisation des données personnelles. « Si c'est gratuit, c'est que vous êtes le produit » : la formule popularisée par Bruce Willis est en train de tourner à la prise de conscience planétaire.

L'IA, des technologies qui vont entrer dans notre intimité

Le défi posé par l'IA, ce n'est pas tant le mythe de la Singularité évoqué par les fous furieux de la Silicon Valley que celui de l'IA dite « faible », celle des algorithmes de tous les jours, « qui affectent notre accès à l'information, à la culture, à l'emploi ou encore au crédit », a souligné Cédric Villani. Et c'est d'autant plus dangereux qu'à la vérité - tous les chercheurs le reconnaissent - nous ne savons pas ce qui se passe à l'intérieur des algorithmes que l'on est en train d'entraîner à apprendre par eux-mêmes.

L'IA dans nos vies, demain, ce ne sera pas seulement des services aussi utiles que des assistants personnels intelligents, des systèmes de reconnaissance vocale comme Siri ou Alexa, des traducteurs automatiques. Ce seront des technologies qui vont entrer dans notre intimité, interférer avec notre éducation, nos déplacements, nos finances personnelles, notre santé... Mais aussi la police ou la justice prédictive voire de nouvelles façons de faire la guerre, avec des soldats "augmentés" ou des armes létales autonomes, théoriquement interdites.

Un "Giec de l'IA" à la hauteur des enjeux ?

Il faudra encadrer les dérives potentielles, mais « franchement, on ne sait pas» comment le faire, confie Cédric Villani. Le mathématicien se contente de proposer la création d'un « comité d'éthique en intelligence artificielle » et d'un « observatoire sur la non-prolifération des armes autonomes ». Quand on pense à la difficulté d'empêcher la prolifération des armes nucléaires, le rapprochement fait froid dans le dos. Emmanuel Macron appelle à une "éthique de l'IA" et propose de créer un "Giec de l'IA", sur le modèle du groupement de scientifiques chargés du climat. Sauf que, si ces derniers ont su nous avertir du danger, le rôle du Giec se limite à celui de lanceur d'alerte : ce n'est pas lui qui empêchera la planète de succomber au réchauffement. Ce sera la responsabilité des politiques. Et de fait, si un Giec de l'IA voit le jour, il ne s'agirait que de disposer d'« une expertise mondiale et indépendante pour organiser le débat démocratique de manière autonome », selon Emmanuel Macron. On ne voit pas bien en quoi il pourrait garantir que « nos démocraties ne succomberont pas à un syndrome orwellien où la technologie devient une forme d'instance de contrôle ».

Le sujet sera mis au menu du prochain sommet du G20, en Argentine. Mais il est à craindre que cet appel à la régulation ne reste incantatoire. Le risque est double. D'abord, celui d'une révolte, déjà à l'oeuvre, contre les technologies, au risque de freiner l'innovation. Le danger inverse est une forme de résignation où nous, le « produit », nous laisserions les géants de la technologie nous imposer un futur auquel nous ne comprenons rien. C'est tout l'enjeu du nouveau Règlement général sur la protection des données (RGPD) que de redonner à l'individu des outils pour tenter de reprendre la maîtrise de sa vie numérique qui va de plus en plus se confondre avec sa vie tout court.

Philippe Mabille

Sujets les + lus

|

Sujets les + commentés

Commentaires 12
à écrit le 11/04/2018 à 9:46
Signaler
Exploiter un virus pour vendre son antivirus c'est la nouvelle économie, Uber et consort des GAFA en sont les exemples types qui ne travaillent qu'en vous exploitant les uns, les autres!

à écrit le 11/04/2018 à 9:32
Signaler
Japp

à écrit le 10/04/2018 à 19:01
Signaler
Comme pour le deuil, il va faloir finir par accepter notre sort. Que ce soit pour le climat ou l'IA. Nous ne maitrisons déjà plus rien et nous sommes sommés de le subire sous peine d'être écartés. Ex: ZAD ou smartphones... Le future s'annonce mal.

le 11/04/2018 à 14:44
Signaler
Le futur pourrait «  être » autrement ? Si chacun de nous : Se Respecte soi même Les autres ( tous , sans jugement, sans à priori) La nature( globalement) Les références ( tous les codes) L’autorité ( les états) L’avenir, ensemble, ne pourr...

le 14/03/2023 à 11:25
Signaler
apagnan

le 14/03/2023 à 11:26
Signaler
quoicoubeh

à écrit le 10/04/2018 à 14:07
Signaler
Le parallèle avec le réchauffement climatique est juste, sauf à constater que pour le climat c'est ...déjà mort. Rien ne pourra changer qui puisse endiguer la hausse des températures. La productivité, la croissance, l'avidité auront toujours une long...

le 11/04/2018 à 14:39
Signaler
Non le climat n’est pas mort il est «  juste » perturbé par rapport à ses paramètres d’origines.( paramètres d’usines comme pour un portable) Impossible de «  remettre à zéro « ( initialiser comme un portable) car les humains ont trop «  joué aux ...

à écrit le 10/04/2018 à 12:09
Signaler
Mais qu’avez vous contre, je cite les « mâles blancs quadragénaires formés dans les universités américaines ou européennes » ? Et comment pouvez-vous laisser entendre que toutes les personnes de l’espèce mentionnée ci-dessus réagissent et pensent de...

le 10/04/2018 à 21:09
Signaler
Mes premières expériences universitaires avec l'IA datent d'il y a près de 30 ans, et on appelait ça des systèmes experts, pour ceux qui connaissent. Au bout du compte, et les profs nous le disaient bien candidement, il n'y a rien qui remplace l'...

à écrit le 10/04/2018 à 9:00
Signaler
L’handicap par rapport à ces technologies C’est la mort de certaines fonctions humaines Ces fonctions avant la technologie était déjà en mode « erronée » parmi les humains. La technologie sera «  à la base » de nouvelles maladies de masse chez le...

le 10/04/2018 à 10:34
Signaler
Alors que nous sommes conscients des risques pourquoi s’evertuer a favoriser un système dont on admet déjà qu’il pourra échapper aux individus et permettre la suprématie d’états malveillants. Est-ce cela le progrès ? Est ce cela que nous voulons pour...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.