Bienvenue dans l'ère cognitive

Les ordinateurs vont devoir ressembler de plus en plus au cerveau humain. Par Bruno Michel, scientifique chez IBM Research - Zurich.

 Depuis que l'informaticien américain John McCarthy a inventé le terme « intelligence artificielle » en 1955, le grand public s'imagine un avenir peuplé d'ordinateurs conscients et de robots qui pensent et agissent comme des humains. Bien qu'un tel avenir puisse en effet se concrétiser, il reste pour le moment une perspective lointaine.

Toutefois la frontière prévisible de l'informatique n'en est pas moins passionnante. Nous sommes entrés dans ce qu'IBM appelle l'ère cognitive. Les avancées de l'informatique renforcent notre capacité à interpréter de grandes quantités de données, afin de conseiller certaines des décisions les plus importantes du monde et de potentiellement révolutionner des secteurs d'activités entiers.

Informatique "cognitive"

Le terme « informatique cognitive » renvoie aux systèmes qui, plutôt qu'étant explicitement programmés, sont conçus pour tirer les leçons de leurs expériences. Grâce à l'extraction des informations utiles à partir de données non structurées, ces systèmes accélèrent l'ère de l'information, en aidant leurs utilisateurs dans une vaste gamme de tâches, allant de l'identification de nouvelles opportunités de marché, à la découverte de nouveaux traitements pour les maladies ou encore à l'élaboration de solutions créatives pour les villes, les entreprises et les collectivités.

L'ère cognitive marque la prochaine étape dans l'application de la science à la compréhension de la nature et au progrès de la prospérité humaine. Ses débuts remontent au début de l'année 2011, lorsque le système informatique cognitif Watson a battu deux champions humains au jeu télévisé Jeopardy. Depuis lors Watson a continué à développer ses activités, en démontrant ainsi comment l'informatique cognitive peut utiliser des données massives pour s'attaquer à certains des problèmes systémiques les plus difficiles auxquels l'humanité est confrontée.

Créer davantage d'interactions pleinement humaines

De façon générale, les systèmes cognitifs offrent cinq fonctions principales. Premièrement ils créent un engagement humain plus actif, en utilisant les données qui concernent un individu pour créer davantage d'interactions pleinement humaines. Deuxièmement, ils permettent de proportionner et d'élever le niveau d'expertise, en apprenant des experts dans différents domaines d'apprentissage et en mettant ce savoir-faire à la disposition de populations plus étendues. Troisièmement, ils offrent des produits, comme ceux liés à l'Internet des objets, dotés d'une capacité à ressentir le monde autour d'eux et à se renseigner sur leurs utilisateurs.

Quatrièmement, ils permettent à leurs opérateurs d'interpréter de grandes quantités de données, pour aider à gérer les charges de travail, en fournissant le contexte et en permettant un apprentissage en continu, pour mieux prévoir et améliorer l'efficacité opérationnelle. Et enfin (ce qui est peut-être le point le plus important), ils permettent à leurs utilisateurs de percevoir des tendances et des opportunités qui seraient impossibles à découvrir par des moyens traditionnels.

S'inspirer du cerveau humain

Les systèmes cognitifs s'inspirent du cerveau humain, un organe qui a encore beaucoup à nous apprendre. Alors que les systèmes augmentent en taille et en complexité, l'architecture des ordinateurs traditionnels semble avoir atteint ses limites, car la consommation de puissance s'envole et le délai de transmission entre les composants devient plus en plus contraignant. En effet, sur le plan de l'efficacité énergétique (mesurée en termes de nombre de calculs par unité d'énergie sur des données « non structurées »), le cerveau humain fonctionne environ 10 000 fois mieux que les meilleures machines artificielles.

Aujourd'hui les ordinateurs consomment environ 10 % de la production d'électricité du monde, selon Mark Mills, directeur général du groupe Digital Power. Afin de profiter pleinement de l'ère cognitive, nous devrons être en mesure d'exploiter d'énormes quantités d'informations. Au cours des 15 prochaines années, la quantité de données « numériquement accessibles » est censée augmenter d'un facteur de plus de 1 000. Effectuer les calculs nécessaires pour utiliser une quantité de données aussi grande ne sera pas possible sans d'énormes progrès dans l'amélioration de l'efficacité énergétique.

Égaler le fonctionnement et l'efficacité du cerveau humain va probablement nous obliger à imiter certaines de ses structures. Plutôt que d'essayer de comprimer une performance gourmande en énergie dans des puces toujours plus grandes, nous pouvons structurer les composants d'un ordinateur dans une matrice 3D compacte semblable à un cerveau humain, en maximisant non pas la performance, mais l'efficacité énergétique.

Structurer les puces d'ordinateur dans un environnement 3D rapproche les divers éléments d'un ordinateur les uns des autres. Cela réduit non seulement le temps qui leur est nécessaire pour communiquer, mais améliore par ailleurs l'efficacité énergétique d'un facteur de 5 000, ce qui permet de fournir à des ordinateurs une efficacité proche de celle d'un cerveau biologique. Un ordinateur beaucoup plus dense, construit à partir des technologies de téléphonie mobile et de systèmes de refroidissement disponibles, permet déjà une grande efficacité dix fois supérieure au système conventionnel.

Besoin d'énergie

Mais les ordinateurs artificiels sont donc inefficaces non seulement parce qu'ils ont besoin d'alimenter les puces, mais également parce qu'ils ont besoin d'énergie pour faire fonctionner les climatiseurs qui éliminent la chaleur générée par les processeurs. Le cerveau humain a là encore beaucoup à nous apprendre. Tout comme le cerveau utilise le sucre et le sang pour fournir l'énergie et le refroidissement à ses diverses régions, un ordinateur 3D pourrait utiliser son fluide de refroidissement pour fournir de l'énergie aux puces. En plus de dissiper la chaleur, le fluide pourrait servir à alimenter un système électrochimique offrant de l'électricité aux processeurs. Ce procédé permettrait à son tour d'autres augmentations dans la densité des composants et donc l'efficacité.

En adoptant certaines caractéristiques du cerveau humain, les ordinateurs peuvent devenir beaucoup plus compacts, plus efficaces et plus puissants. Et cela va nous permettre en fin de compte de profiter pleinement de l'informatique cognitive : en offrant à notre véritable cerveau de nouveaux outils pour l'aider, pour le stimuler et pour l'inspirer.

Bruno Michel, scientifique chez IBM Research - Zurich.

© Project Syndicate

Sujets les + lus

|

Sujets les + commentés

Commentaire 1
à écrit le 09/07/2017 à 13:23
Signaler
Le meilleur ordinateur concevable ne pourra jamais prendre conscience" qu'il est". Si tel était un jour le cas,l'homme pourrait alors prendre conscience qu'il est "Dieu" Pour l'instant ces considérations ne peuvent intéresser que la science fiction...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.