2016, l'année de l'intelligence artificielle ?

 |   |  2297  mots
La consécration de cette science encore toute neuve, malgré les fantasmes qu'elle véhicule déjà, est l'aboutissement d'un long processus qui n'a pas été linéaire.
La consécration de cette science encore toute neuve, malgré les fantasmes qu'elle véhicule déjà, est l'aboutissement d'un long processus qui n'a pas été linéaire. (Crédits : DR)
Soixante ans après ses premiers balbutiements, l'intelligence artificielle est encore loin de « prendre le contrôle des humains », comme certains le craignent. Ses progrès n'en sont pas moins remarquables : elle apprend à traiter les mégadonnées, enrichit son langage naturel et ressentira bientôt nos émotions...

Le développement de l'intelligence artificielle sera probablement l'un des éléments clés de cette fameuse « quatrième révolution industrielle » que le Forum économique de Davos vient tout juste de célébrer. On le sait peu, mais la consécration de cette science encore toute neuve, malgré les fantasmes qu'elle véhicule déjà, est l'aboutissement d'un long processus qui n'a pas été linéaire. Si l'année 2016 est celle de l'intelligence artificielle, déclarée comme telle au moins par Microsoft, elle marquera aussi le soixantième anniversaire du séminaire de Darmouth qui, pour de nombreux spécialistes, consacrait la naissance de ce long cheminement de recherches et d'expérimentation au cours duquel les scientifiques ont cherché à doter l'ordinateur de capacités semblables à celles du cerveau humain. Le 31 août 1955, quatre experts de l'informatique alors naissante, John McCarthy du Dartmouth College, Marvin Minsky de l'université de Harvard, Nathaniel Rochester d'IBM et Claude Shannon de Bell Telephone Laboratories, décident d'organiser un séminaire d'un genre assez nouveau. Ils suggèrent que pendant deux mois, avec dix de leurs confrères chercheurs, ils se réunissent à Dartmouth durant l'été 1956 et fixent ainsi le but de la réunion : puisque tous les aspects du phénomène d'apprentissage et autres manifestations de l'intelligence humaine sont si précisément décrits, alors une machine pourrait les simuler.

« Nous tenterons de découvrir comment une machine pourrait utiliser le langage, créer des abstractions et des concepts, s'améliorer elle-même, résoudre des problèmes qui sont aujourd'hui l'apanage de l'intelligence humaine. Nous pensons que des avancées significatives pourraient être faites dans ces domaines, si un petit groupe de scientifiques se saisissait de ces questions et y consacrait un été », écrit McCarthy.

Rémunération proposée : 1.200 dollars plus les frais pour les chercheurs ; prise en charge par leur entreprise (IBM, Bell, Hugues Aircraft, Rand Corp) pour les autres... John McCarthy (1927-2011), né à Boston de parents tous deux immigrés - père irlandais et mère lituanienne -, est considéré aujourd'hui comme un pionnier de l'intelligence artificielle. Il était un surdoué des maths, qu'il a d'abord appris en autodidacte, avant d'être reçu à Caltech, où ses connaissances lui permettent de passer directement en troisième année. Il créera en 1962 le premier laboratoire d'intelligence artificielle de l'université de Stanford, où il enseignera jusqu'à sa retraite en 2000. Participe aussi à ce séminaire une autre grande figure de la discipline, Herbert Simon (1915-2001), prix Nobel d'économie en 1978, né à Milwaukee, d'un père ingénieur, qui avait émigré d'Allemagne en 1903. Contrairement à McCarthy, il n'était pas un pur mathématicien, mais un économiste et un spécialiste des sciences politiques et des organisations. Il s'intéressera dès 1943 à la question de la modélisation de la prise de décision dans les organisations (un sujet auquel les militaires américains accordaient alors le plus grand intérêt). Ses recherches sur ce sujet le conduiront tout naturellement vers l'informatique et l'intelligence artificielle. Les deux hommes se réclamaient d'ailleurs de l'héritage d'Alan Turing, ce mathématicien anglais qui s'était rendu célèbre durant la Deuxième Guerre mondiale en concevant une « machine intelligente » capable de déchiffrer les codes allemands, et qui était convaincu qu'à l'image d'un enfant, un ordinateur devait être capable d'apprendre.

Deep Blue, l'ordinateur plus fort que Kasparov

Il faudra de nombreuses années pour que les intuitions des pères fondateurs se traduisent par des avancées concrètes. Dans les années 1960-1970, les priorités du financement de la recherche aux États-Unis allaient au développement de la force de frappe et à la mise au point d'ordinateurs de plus en plus puissants. On s'intéressait alors beaucoup plus à la vitesse de calcul qu'à l'intelligence de la machine. Puis dans les années 1980, c'est l'Internet qui a mobilisé l'essentiel de la recherche, avec des investissements colossaux dans les réseaux de transport de données. Il faudra attendre le début des années 2000 pour que l'intelligence artificielle revienne sur le devant de la scène, avec l'aide des scénaristes de Hollywood qui considèrent que les robots dotés d'une intelligence supérieure sont devenus des personnages aptes à faire se déplacer les spectateurs en masse dans les salles de cinéma.

Pour de nombreux experts, la seconde naissance de l'intelligence artificielle date de 1997, lorsque l'ordinateur Deep Blue, conçu par IBM, l'emporte sur le champion du monde d'échecs Gary Kasparov. La machine pesait alors 1,4 tonne et nécessitait la présence d'une vingtaine d'informaticiens. La seconde percée décisive fut celle de Watson, lui aussi conçu par IBM, un ordinateur intelligent qui, en février 2011, a battu les meilleurs spécialistes humains du jeu Jeopardy aux États-Unis. Cette expérience a montré qu'une machine pouvait comprendre des questions complexes posées en langage naturel, déjouer des pièges, donner des réponses en quelques secondes et calculer un indice de fiabilité de la réponse.

Il n'existe pas de définition unique de l'intelligence humaine. Mais Yves Coppens a daté sa première manifestation : il y a trois millions d'années, un « hominidé » a eu l'idée de se saisir d'un caillou, puis d'un autre et de taper sur le premier avec le second afin de le transformer. Pour Yves Coppens, c'est cet événement, premier signe de l'intelligence, qui a fait basculer l'histoire de l'humanité. Il n'y a pas non plus de définition très précise de l'intelligence artificielle, mais on sait qu'elle consiste à doter un logiciel d'un certain nombre de compétences et de savoir-faire, d'une efficacité comparable, voire supérieure à celle de l'intelligence humaine, le tout en se fondant sur les mathématiques, les algorithmes, la sémantique.

Traiter les mégadonnées et apprendre sans fin

Au-delà des fantasmes que crée la perspective, encore très lointaine, de voir l'intelligence des machines remplacer celle de l'homme, le développement de l'intelligence artificielle repose aujourd'hui sur la conviction des chercheurs mais aussi des entreprises qui la mettent en oeuvre, que les logiciels d'intelligence artificielle vont faciliter la résolution de deux problèmes essentiels : la compréhension des données et la mise en oeuvre d'un langage « naturel » entre les hommes et les machines. Ce sont deux des pistes principales de la recherche qui visent à passer de l'Internet de la question à l'Internet de la réponse (le Web sémantique).

En matière de production de données, nous abordons aujourd'hui l'ère du zetta-octet, autrement dit un volume à ce point si extravagant qu'il est inaccessible au traitement humain ou par des ordinateurs classiques. L'intelligence artificielle permettra aux machines de puiser dans ces données des éléments lui permettant d'apporter une réponse claire et rapide à la question qu'on lui posera. C'est naturellement un chantier immense puisqu'il faut à la machine une extraordinaire puissance de traitement des informations, des algorithmes suffisamment efficaces pour lui permettre de rapprocher des informations entre elles, de trouver des corrélations, de construire des structures de données pertinentes, avant de fournir une ou des réponses avec une bonne probabilité qu'elles soient exactes. Il s'agit d'un processus stochastique élaboré, basé sur les mathématiques. Le logiciel d'intelligence artificielle Watson, d'IBM, est ainsi capable, dans un champ donné (par exemple le traitement de certains types de cancers), de « lire » des données non structurées puisées dans les publications scientifiques et médicales, les rapports établis par les médecins sur les cas de leurs patients, les recherches des laboratoires pharmaceutiques et les documents relatifs aux protocoles de traitements expérimentaux établis dans un certain nombre d'hôpitaux, pour apporter une réponse à la question d'un médecin sur la nature du traitement à appliquer à son patient. Dans ce cas « l'intelligence » de la machine réside dans sa capacité à embrasser un volume d'informations considérable, à en extraire ce qui a du sens par rapport à la question posée, à apporter des réponses pertinentes et rapides (ce que l'intelligence humaine serait incapable de faire), mais aussi à approfondir ses connaissances au fur et à mesure des questions qui lui sont posées. Cela implique cependant de déterminer un domaine de référence relativement précis. Cette capacité de la machine à « apprendre » ouvre la voie au « deep learning » (lire page suivante), un processus dans lequel la machine devient de plus en plus compétente dans un champ déterminé et constitue donc un outil de décision reposant sur l'analyse en profondeur d'un très grand nombre d'informations.

On voit bien l'intérêt de ce type d'intelligence artificielle pour les entreprises qui doivent traiter un grand nombre de données, la santé, l'assurance, la banque, les services financiers. Ce n'est pas par hasard si un certain nombre de fonds d'investissement et de banques (Bridgewater, BlackRock, Two Sigma, Deutsche Bank...) s'arrachent à prix d'or les meilleurs spécialistes de l'intelligence artificielle, chez IBM, Google ou ailleurs, pour mettre au point des algorithmes autonomes de gestion quantitative, capables de rechercher dans l'immensité des mégadonnées financières les combinés (« patterns ») d'informations qui seront la base de stratégies d'investissements imbattables.

Éliminer les risques d'erreur humaine

De la même façon, IBM, se fondant sur les technologies mises en oeuvre par Watson, a mis au point un logiciel d'intelligence artificielle, M & A Pro, dont l'objectif est d'éliminer les risques d'erreur humaine dans les processus de fusions-acquisitions. La machine analyse des milliers d'informations sur les sociétés cibles, construites sur un référentiel d'une centaine d'acquisitions déjà effectuées, et calcule une probabilité que l'acquisition envisagée produise les résultats escomptés. L'autre grand domaine qui s'ouvre à l'intelligence artificielle est celui du langage.

La machine ne traite pas les mots comme des données, mais elle en comprend le sens. Cela implique qu'elle dispose d'un dictionnaire de mots, qu'elle soit capable d'en analyser la structure (racine, suffixes, préfixes, déclinaisons, conjugaison...), dans un processus de lemmatisation (analyse lexicale), qui consiste à regrouper les différentes formes que peut revêtir un mot (masculin ou féminin, singulier ou pluriel, mode...). Bref d'être capable de faire la différence entre deux requêtes très proches, comme « un prêt pour une voiture » ou le « prêt d'une voiture ». Cela doit associer des compétences mathématiques et de compréhension fonctionnelle de la langue.

Dictionnaire évolutif et "assistants numériques"

La société française Davi est une pionnière du Web sémantique. Elle a construit un dictionnaire auto-apprenant de 1,3 million d'entrées, qui se met à jour toutes les 48 heures sur Internet, et l'intelligence artificielle dont elle est dotée lui permet d'en comprendre le contexte et le sens.

Davi a ainsi mis au point des « assistants numériques » capables de prendre en charge un centre d'appels ou le service d'assistance d'un site Internet. L'assistant numérique comprend la question qui lui est posée et répond en langage naturel. Cela nécessite des algorithmes extrêmement performants et des capacités de traitement très importantes. Mais ces centres d'appels virtuels permettent aux entreprises qui les installent de maîtriser l'information donnée par les assistants numériques et permettent d'améliorer le service au client en préservant l'intervention humaine aux questions les plus complexes. On voit bien les applications potentielles du langage naturel pour enrichir le dialogue entre l'homme et les multiples objets connectés qu'il utilise chaque jour, ordinateurs et téléphones, mais aussi objets connectés de la maison ou du bureau.

La prochaine étape sera celle de l'intelligence émotionnelle des machines. Pour l'instant, l'assistant numérique ne sait pas faire la différence entre une personne satisfaite ou mécontente. À travers l'analyse vocale et morphologique, la machine sera bientôt en mesure de déceler la personnalité de son interlocuteur, d'étiqueter ses émotions et d'y adapter sa réponse, mais aussi de s'accorder au niveau de langage de celui ou celle avec qui elle « parle ». La machine devra donc intégrer une bibliothèque des différentes expressions que peut renvoyer un visage humain afin de les reconnaître et de les prendre en compte dans la nature du langage qu'elle va utiliser. De même, la machine devra décrypter les ressorts de la voix humaine (débit, spectre...). Ces technologies sont aujourd'hui en cours de développement. Elles ouvriront probablement la voie à « l'intelligence affective » des machines, capables par le choix des mots et du ton de la voix, de créer de leur propre initiative un climat « positif » dans leur dialogue avec l'être humain, voire de faire preuve de sens de l'humour. En attendant les machines capables de « mentir », une fonction pour l'heure encore inatteignable pour les développeurs.

Dans une récente interview donnée à La Tribune, Jean-Gabriel Ganascia, l'un des principaux spécialistes français du domaine, expliquait que « l'intelligence artificielle est présente partout dans nos vies ». Il est certain que dans les années qui viennent, elle prendra une part de plus en plus importante dans l'ensemble des processus de l'entreprise, qu'il s'agisse des mécanismes de prises de décision, de l'intelligence des produits et services eux-mêmes, de ses relations avec ses clients. Mais nous n'en sommes encore qu'aux prémices d'une évolution que certains experts envisagent comme devant changer radicalement la nature et les fonctions de l'intelligence humaine. C'est en tout cas la première fois, dans l'histoire de l'humanité que la question de la compétition entre l'homme et la machine est aussi clairement posée.

_______

[La Tribune LAB] Débat : Quelle place pour l'homme dans la transition digitale ?

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 04/02/2016 à 14:25 :
On est rassuré de savoir que la machine se préoccupe de savoir si le client est content ou mécontent car bien des vendeurs débordés ne semblent guère s'en préoccuper. Quand est-ce que les logiciels vont arrêter de choisir à la place des clients en pré cochant des cases à leur place et souvent la mauvaise ?
a écrit le 03/02/2016 à 12:44 :
Les ordinateurs à neutrons liés à la physique cantique, et donc intégrant le peut-être au oui et non binaire, progressent c'est un fait mais dans 99,99%. des cas dont parlent les médias cela n'est qu'une amélioration de la programmation de plus en plus affinée par l'homme...

Le terme "intelligence artificielle" est une imposture, parlons plutôt de progrès réels liés à la programmation et au matériel informatique.

Mais c'est forcément plus vendeur de parler d'intelligence artificielle, vocabulaire spectaculaire donc indispensable au marketing direct.

Et si on arrêtait de prendre le consommateur pour un pigeon ?
Réponse de le 03/02/2016 à 14:00 :
La physique cantique ???....Hmmm..... Des ordinateurs à neutrons ?????.......Hmmm.....
C'est dans le bouquin de Nicolas SARKOZY je présume ?
Réponse de le 03/02/2016 à 16:11 :
cantique et neutrons ????
Vous êtes comique, Zorro !
Réponse de le 03/02/2016 à 18:36 :
Monti internet est votre ami n'hésitez pas à le consulter avant de me sauter dessus de part votre manque de curiosité en la matière, merci.

et ça date de 2007... : http://www.futura-sciences.com/magazines/matiere/infos/actu/d/physique-demain-ordinateurs-quantiques-neutrons-10219/
Réponse de le 03/02/2016 à 18:39 :
pro patria la prochaine fois merci de ne pas me déranger pour rien:

http://www.futura-sciences.com/magazines/matiere/infos/actu/d/physique-demain-ordinateurs-quantiques-neutrons-10219/

De rien c'est toujours un plaisir d'instruire les gens.
a écrit le 03/02/2016 à 9:12 :
d'accord ' en theorie'... en pratique quand on a fait du datamining, on se rend compte que ceux qui debarquent pour faire du bigdata vont atterrir brutalement...... comprennent qui pourra...

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :