Futur en Seine décrypte l'intelligence articificielle

L’intelligence artificielle (IA) est la discipline technologique du moment. Fascinante ou effrayante, elle suscite à la fois enthousiasme et suspicion. A Futur en Seine, la matinée de jeudi 8 juin a permis de décrypter cette mystérieuse IA.

Tout ce que vous avez toujours voulu savoir sur l'IA sans oser le demander : l'intitulé de cette conférence présentée à Futur en Seine, a rempli sa mission grâce aux explications du scientifique et philosophe Jean-Gabriel Ganascia. Le professeur à l'université Pierre et Marie Curie, chercheur en intelligence artificielle et président du comité d'éthique du CNRS a utilisé toute son érudition pour remettre à plat les nombreuses idées reçues véhiculées par l'IA.

Mais d'abord, il convient de définir l'intelligence artificielle. «  Le terme a été introduit en 1956 par deux jeunes mathématiciens qui découvraient les ordinateurs, construits dix ans auparavant. Leur but : décomposer l'intelligence en fonctions élémentaires et simuler chacune de ces fonctions sur un ordinateur », explique l'auteur de L'Intelligence artificielle (Éditions du Cavalier bleu, 2007). L'IA est revenue sur le devant de la scène il y a quelques années seulement, avec l'apparition du deep learning (apprentissage profond). « Ces techniques d'apprentissage sont capables de traiter de très grandes masses de données. Le deep learning reprend la notion de réseaux de neurones formels (représentation mathématique et informatique d'un neurone biologique), née en 1943 », détaille le président du comité d'éthique du CNRS. Dans les années 80, on a mis au point des algorithmes capables de travailler sur plusieurs couches, mais pour des fonctions élémentaires. « Des chercheurs ont continué à travailler là-dessus, dont le français Yann Le Cun (responsable du programme IA de Facebook), qui a montré en 2010 que sur d'immenses quantités d'images, il obtenait de meilleures performances qu'avec les autres techniques », précise Jean-Gabriel Ganascia.

L'IA va-t-elle tuer le travail ?

Exemple : le logiciel de Google qui apprend sur 20 couches de neurones formels et 200 millions d'images avec un taux de reconnaissance des visages de 99,50 %. Le système AlphaGo, qui a battu les plus grands maîtres du jeu de Go, utilise aussi le deep learning, de même que les voitures autonomes. Mais cette IA de plus en plus efficace va-t-elle nous rendre ringards et nous voler nos emplois ? En effet, plusieurs études alarmistes ont récemment diffusé l'idée que des millions d'emplois allaient disparaître dans les dix ans à venir à cause des robots équipés d'IA.

« Je reviens du Japon, dont le taux de natalité est très bas et qui va manquer de main d'oeuvre. Leur vision est très différente de la nôtre. Ils se disent : avec les robots nous allons continuer d'avoir une industrie compétitive. Les Français et les européens, eux, ont une vision négative, et pensent par exemple à instaurer une taxe sur les robots », explique Jean-Gabriel Ganascia, qui relativise la pertinence de ces études. Il s'appuie sur la catégorisation de la philosophe Hannah Arendt qui distingue le travail (labor), l'activité qui permet à l'homme de subsister ; l'œuvre (work), la réalisation matérielle de l'artisan ou de l'artiste et l'action, au sens d'action politique.

«  Le travail répétitif, laborieux et des activités intellectuelles elles aussi répétitives seront certainement remplacées. Mais dans le domaine de l'oeuvre, il faut des talents que ne possèdent pas les robots. Et de nouveaux métiers vont apparaître grâce à des formations hybrides, qui intègrent le numérique, et qui doivent se dérouler tout au long de la vie » analyse le professeur d'informatique, qui se dit optimiste, « à condition d'affronter les transformations majeures que va provoquer l'intelligence artificielle ».

La singularité : une supercherie

Quant à la singularité (le moment où l'IA acquière une conscience propre) soutenue par les transhumanistes et leur gourou Ray Kurzweill, ingénieur chez Google, Jean-Gabriel Ganascia est catégorique : c'est une supercherie. « La singularité se base sur deux arguments. Un : la loi de Moore, définie en 1964 par le fondateur d'Intel, qui établit que la puissance des processeurs double tous les 18 mois. Donc les machines vont être à un moment plus intelligentes que nous et vont prendre le pouvoir. Or, la technologie du silicium qui compose ces puces à des limites physiques. Deuxième argument : le machine learning (apprentissage automatique) qui permet aux IA de s'auto enseigner. Là encore, cet apprentissage a des limites. Quand on apprend, il faut à un moment introduire des notions totalement nouvelles comme l'ont fait Galilée ou Einstein. On ne sait pas comment une machine peut d'elle même établir ces nouveaux paradigmes », conclut l'auteur de Le mythe de la singularité. Faut-il craindre l'intelligence artificielle ? (Seuil, 2017). Des futurs à la Terminator ou Matrixx ne sont donc pas pour demain.

Sujets les + lus

|

Sujets les + commentés

Commentaire 0

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

Il n'y a actuellement aucun commentaire concernant cet article.
Soyez le premier à donner votre avis !

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.