Qui a peur de l'intelligence artificielle ?

 |   |  1099  mots
(Crédits : DR)
Lors d’une table ronde consacrée aux enjeux éthiques posés par l’IA, plusieurs spécialistes de la Silicon Valley ont décrypté comment cette technologie interroge notre imaginaire, nos valeurs et notre humanité.

L'intelligence artificielle, aubaine ou danger pour l'humanité ? Emmanuel Macron a mis l'accent lors de son discours au collège de France jeudi sur les enjeux éthiques de régulation des nouvelles technologies. Mais le sujet passionne aussi dans la Silicon Valley. Pour répondre à cette interrogation, aujourd'hui sur toutes les lèvres, que le cabinet d'avocats Hogan Lovells a organisé, le 15 mars dernier à San Francisco, une table ronde rassemblant des professionnels de l'IA. Au programme, deux heures d'échanges pour s'élever au-dessus de la frénésie de l'actualité et s'interroger sur l'une des technologies les plus intrigantes et controversées de notre temps.

La lecture des journaux suffit pour s'en rendre compte : l'intelligence artificielle est aujourd'hui la source de nombreux fantasmes, certains utopiques (telle la possibilité de télécharger notre cerveau sur un ordinateur pour devenir virtuellement immortels) d'autres beaucoup moins (en témoignent les déclarations d'Elon Musk et Stephen Hawking sur le risque existentiel que l'IA poserait à l'humanité). Cela s'explique à la fois par les progrès spectaculaires de l'IA au cours des dernières années, du logiciel Alphago aux voitures autonomes, et par l'écho que trouve cette technologie dans notre imaginaire collectif, via le truchement de la science-fiction. D'Asimov à Matrix, en passant par Blade Runner, l'IA occupe de longue date une place de choix dans nos représentations.

C'est précisément cette peur des machines surpuissantes, renforcée par les productions hollywoodiennes, que les participants ont tout de suite tenu à désamorcer.

« Il y a beaucoup d'incompréhensions autour de l'IA car on ne prend pas toujours le temps de bien définir les termes. » a ainsi affirmé Robin Bordoli, CEO de Crowdflower, une plateforme pour les sciences des données.

En effet, l'IA n'est pas un monolithe.

« Il y a d'un côté l'intelligence artificielle forte ou générale, qui atteindrait ou dépasserait le niveau humain. Il s'agit de Terminator, ou encore de Hal dans 2001, l'odyssée de l'espace. À ce jour, ce type d'IA n'existe tout simplement pas. En revanche, nous avons des intelligences artificielles faibles, ou spécialisées, qui peuvent accomplir une tâche avec efficacité, mais ne savent rien faire d'autre », a-t-il développé.

AlphaGo, par exemple, peut battre n'importe quel humain au go, mais est incapable de servir du café. Pour Robin Bordoli, la peur d'une apocalypse provoquée par le soulèvement des machine est donc totalement infondée.

Le spectre du chômage de masse

Reste, cependant, la peur que ces IA ultraspécialisées ne mettent progressivement tout le monde au chômage. Depuis la célèbre étude publiée par l'Université d'Oxford, en 2013, affirmant que 47% des emplois américains pourraient être automatisés au cours des vingt prochaines années, les cris d'alertes se multiplient sur ce thème. Pour Robin Bordoli, ces craintes sont, là encore, exagérées.

« Machines et humains sont complémentaires. Là où les premières sont de formidables machines à calculer, les seconds sont polyvalents et intuitifs. L'IA ne va donc pas remplacer l'homme, mais plutôt le compléter. »

Même son de cloche du côté de Yarmela Pavlovic, avocate spécialisée dans la santé connectée.

« Dans le domaine médical, la plupart des applications tournent autour de l'imagerie. Il peut s'agir de repérer un cancer sur une radio, ou encore de dépister les signes de diabète dans l'œil d'un patient. L'objectif n'est pas de remplacer radiologues et ophtalmologues, mais de prendre en charge la partie la plus laborieuse et répétitive de leur travail, pour leur permettre de mieux se consacrer à leurs patients. »

Tout le monde ne partage pas cet optimisme.

« La vitesse et l'ampleur à laquelle l'automatisation risque de se produire au cours des prochaines années sont sans précédent dans l'histoire de l'humanité. On parle d'automatiser la conduite des camions et des taxis, qui représentent un vivier d'emplois important. Je ne suis pas certain que nous soyons prêts à encaisser le choc. » tempère ainsi Avi Tuschman, CEO de Pinpoint Predictive, entreprise de marketing digital.

Humains, trop humains

À mesure que l'on emploie des machines en plus grand nombre pour nous assister dans nos activités, se pose la question de l'éthique de celles-ci. Dans son livre Weapons of Math destruction, la mathématicienne Cathy O'Neil met ainsi en garde contre l'usage des algorithmes d'IA dans l'aide à la prise de décision. Selon elle, si l'on n'y prend pas garde, ceux-ci peuvent être source de discriminations et d'inégalités, pour peu que les données employées pour les entraîner reflètent un biais de départ. C'est d'autant plus problématique que les algorithmes d'IA sont souvent des boîtes noires : on ne sait pas comment ils parviennent à leurs résultats.

« Il faut une transparence totale sur la manière dont l'IA est entraînée. Personne ne devrait commercialiser des algorithmes qui fonctionnent en vase clos, en intimant aux clients de se contenter de faire confiance à l'IA », martèle Robin Bordoli.

Face à ce problème, les pouvoirs publics sont en train de réagir. Ainsi, en décembre dernier, la ville de New York a monté une équipe chargée d'auditer les algorithmes d'IA employés par les services publics, pour s'assurer qu'ils soient dépourvus de tout biais discriminatoire.

Comme en témoigne le récent scandale touchant Facebook et Cambridge Analytica, un autre risque posé par l'IA réside dans sa capacité à manipuler l'opinion.

« Lorsque les algorithmes de Youtube vous identifient comme plutôt à gauche, ils vous bombardent de contenus très à gauche. S'ils repèrent votre appétence pour la course, ils vous suggèrent des vidéos de marathon. Ils ont mis le doigt sur une faiblesse de l'humain, son tropisme en faveur des contenus le confortant dans ses opinions, et le goût du sensationnel. Or, le rôle du journalisme est précisément de trier les informations pour sélectionner les plus importantes, et non les plus spectaculaires, d'une part, et de présenter les deux côtés de la médaille d'autre part. Il faut valoriser le scepticisme contre la tyrannie de la majorité, et pour l'heure, ce n'est pas le rôle que remplit l'IA », met en garde Avi Tuschman.

La véritable menace posée par l'IA ne résiderait donc pas du côté des machines superintelligentes, mais plutôt de l'exploitation des points faibles de l'homme. Loin de nous déraciner, l'IA nous renvoie ainsi, tel le miroir de Narcisse, à notre propre humanité.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 02/04/2018 à 16:52 :
Le problème majeur c'est que l'on peut mesurer la quantité considérable de métiers que la robotique et l'informatique pourront remplacer, la majeur partie, par contre nous n'arrivons pas à en imaginer les potentiels nouveaux métiers, et nos politiciens et leurs maitres actionnaires milliardaires eux se reposent à fond sur cette incertitude sans chercher à l'étoffer, comme si cela n'était bel et bien qu'une chimère.
a écrit le 02/04/2018 à 16:20 :
"Machines et humains sont complémentaires. Là où les premières sont de formidables machines à calculer, les seconds sont polyvalents et intuitifs. L'IA ne va donc pas remplacer l'homme, mais plutôt le compléter. » : dans ce cas, ce n'est pas de l'IA mais des systèmes experts. Dans IA, il y a intelligence ce qui veut dire évolution et polyvalence. Ce que vous appeler IA n'est qu'une collection d'expérience permettant à une machines d'avoir en base de données toutes les réponses les plus probables face à une situation. D'où le terme calculateur : c'est de l'agrégation de connaissances soit par programmeur soit par elle même comme un aspirateur de données à condition que cela soit répétitif ( ce qui n'est pas possible pour tout comme les voitures autonomes). Mais si on prend la médecine, un diagnostic dépend de la connaissance accumulée par le médecin. En quoi, un système expert couplé à des capteurs ne pourrait il pas remplacer un médecin généraliste ?
Réponse de le 02/04/2018 à 17:16 :
"Ce que vous appeler IA n'est qu'une collection d'expérience permettant à une machines d'avoir en base de données toutes les réponses les plus probables face à une situation. "
Vous devriez réviser un petit peu vos connaissances en la matière....ce que vous évoquez est au mieux un système expert. En ce moment, l'IA traite de deux grands sujets, d'ailleurs complémentaires: le big data, qui consiste à extraire des informations pertinentes d'une grande masse de données et le Deep Learning qui est en gros une extension de ce que l'on appelait avant réseaux de neuronnes mais imbriqués au sein d'un procédé algorithmique à 'paramétrer' (ce que fait précisément l'IA proprement dite). On peut bâtir tout autour un langage ésotérique mais il s'agit de cela. Le problème est que l'on ne maitrise pas réellement les conclusions obtenues, et que cela présente un risque quant à l'assurance que la décision ou le choix est le bon. Par ailleurs, on ne trouve dans la réponse que ce que l'on a demandé....A titre d'exemple on peut citer tous les algos de trading électronique qui optimisent le rendement immédiat mais ne prennent pas en compte l'impact sur l'économie globale. L'optimisation est juste, encore que l'on ne puisse le démontrer formellement, mais il manque juste quelques considérations....
Réponse de le 03/04/2018 à 9:01 :
Bonjour
Je pense qu’il faut définir le «  terme complémentarité «  par rapport a l’humain) qui est un système vivant tridimensionnel)
Pour moi «  la complémentarité - intégrante «  est impossible.
a écrit le 02/04/2018 à 7:32 :
Le récent scandal de FB est engendré par l'utilisation que fait cette entreprise de la colecte généralisé des data par l'IA. Et nous somme priés de mieux nous protéger...

Personnellement, je trouve que le risque vient plutôt du comportement de certaines entreprises, de l'éloignement constant des élites et des classes populaires qui va être boosté par l'IA, et du controle généralisé des masses par ces élites via l'utilisation de l'IA. La démocratie est en jeu et nous nous orientons vers une vrai distopie sournoise.
a écrit le 01/04/2018 à 22:16 :
Les machines ne sont pas complémentaires des humains dans la fonctionnalité des systèmes qui permettent l’humain d’évoluer ( en tout cas toutes les possibilités d’évolution)
a écrit le 01/04/2018 à 21:52 :
C'est étonnant que l'article n'aborde pas l'intelligence artificielle en tant qu'arme. C'est pourtant un usage d'actualité et très redouté : manipulation des marchés financiers, attaques informatique, espionnage, guerre numérique... Ceux qui ont le plus à perdre dans l'immédiat, ce sont les états avancés.
a écrit le 01/04/2018 à 19:25 :
J'y croirai quand la chimère quantique existera ..... encore beaucoup de temps et d'eau à passer sous les ponts ! Pour l'instant on en reste au programme informatique de base !

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :