"L’intelligence artificielle est partout dans nos vies" Jean-Gabriel Ganascia

 |   |  2706  mots
L'intelligence artificielle est le fruit d'une réflexion qui commence bien avant la création des ordinateurs. Elle émane de philosophes comme Leibniz et Hobbes qui affirment que la pensée se réduit à un calcul.
L'intelligence artificielle est le fruit d'une réflexion qui commence bien avant la création des ordinateurs. Elle émane de philosophes comme Leibniz et Hobbes qui affirment que la pensée se réduit à un calcul. (Crédits : Wikimedia Commons)
Jean-Gabriel Ganascia, professeur d’informatique à l’université Pierre-et-Marie-Curie, est l’un des principaux spécialistes français de l’intelligence artificielle. Ses recherches actuelles portent sur le versant littéraire des humanités numériques, la philosophie computationnelle et l’éthique des technologies de l’information et de la communication. Propos recueillis par Jérôme Cohen, fondateur d'Engage.

Comment définir, de façon simple, l'intelligence artificielle [IA] ?

Jean-Gabriel Ganascia - L'intelligence artificielle consiste à faire exécuter par une machine des opérations que nous faisons avec notre intelligence. De façon encore plus simple, cela veut dire calculer, démontrer des théorèmes, résoudre des problèmes, jouer, traduire, parler, reconnaître une voix, la liste serait longue. La création officielle de l'IA date de 1955, avec le projet d'école d'été de John McCarthy, au cours de laquelle il propose de jeter les fondements d'une nouvelle discipline qui partirait de « la conjecture selon laquelle chaque aspect de l'apprentissage ainsi que n'importe quel trait de l'intelligence pourrait, en principe, être décomposé en modules si élémentaires qu'une machine pourrait les simuler ».

Mais l'IA est le fruit d'une réflexion qui commence bien avant la création des ordinateurs. Elle émane de philosophes comme Leibniz et Hobbes qui affirment que la pensée se réduit à un calcul. Elle devient tangible dès la première moitié du xixe siècle avec Charles Babbage, qui conçoit les plans du premier ordinateur avec sa jeune assistante, l'énigmatique Ada Lovelace, fille du poète Byron, selon laquelle une telle machine ne se limiterait pas à effectuer des calculs mathématiques, mais serait en mesure d'opérer sur des mots ou de la musique. Quelques années plus tard, dans les années 1869, un économiste, William Stanley Jevons, réalise, avec des moyens purement mécaniques, un « piano logique » qui simule des raisonnements en ayant recours à l'algèbre de Boole.

L'idée prend de l'ampleur au xxe siècle, dans les années 1940, avant même la construction des premiers ordinateurs électroniques, au moment de la création de la cybernétique qui étudie, avec des automates, la régulation des systèmes complexes. Cette approche aborde de multiples domaines et dépasse la seule question de la régulation des machines. Elle va notamment influencer la psychologie et l'anthropologie : ainsi, l'école de Palo Alto, fondée par Gregory Bateson, s'appuie beaucoup sur la cybernétique.

Alan Turing va aller plus loin encore. Après avoir posé les fondements de ce qui deviendra l'informatique en 1936, il invente, pendant la guerre, le dispositif permettant de décrypter les messages émis par la machine à coder allemande Enigma. Après cette découverte, Turing se pose la question de savoir ce que penser veut dire, pour une machine. Il imagine alors le test d'intelligence des machines qualifié, depuis, comme étant le « test de Turing » : une machine est dite « intelligente » si elle peut faire illusion en se faisant passer pour un être humain au cours d'un chat, c'est-à-dire d'un échange écrit, par l'intermédiaire de machines.

Après que de grandes espérances, comme celle de la traduction automatique ou du jeu d'échecs, ont été un peu « refroidies », l'IA ne se développe réellement qu'au cours des années 1970, lorsque l'on comprend qu'il ne suffit pas de faire de la logique, mais qu'il faut relier la psychologie, la linguistique et l'informatique. Elle accroît sa popularité ensuite avec l'apparition des « systèmes experts », c'est-à-dire des logiciels visant à simuler le raisonnement dans un champ du savoir restreint, en ayant recours à la connaissance d'hommes de métier pour résoudre des problèmes précis. Ces derniers rencontrent un succès énorme dans les années 1980 avant que l'IA necroise sa course avec le développement du Web.

Aujourd'hui l'IA, c'est quoi ?

L'intelligence artificielle est partout dans nos vies : dans la reconnaissance de la parole, des visages ou des empreintes digitales, dans les apprentissages machines, dans l'hypertexte, les moteurs de recherche, la traduction automatique, les logiciels de recommandation, etc. Tout ce qui est Web comporte de l'IA. Mais il y a aussi de l'IA dans votre téléphone portable, dans la voiture autonome, dans les drones...

Aujourd'hui, quels sont les pays ou les organisations le plus en pointe dans ce domaine ?

Les États-Unis en premier lieu, parce que la discipline s'y est développée beaucoup plus rapidement qu'ailleurs. Pour une simple raison, c'est que les Américains se posent surtout la question du comment, moins du pourquoi, leur côté plus pragmatique les fait avancer plus vite. Au Royaume-Uni aussi, parce qu'ils avaient une tradition logique et informatique forte : n'oublions pas que Charles Babbage, l'inventeur du premier ordinateur, est anglais et qu'il en va de même d'Alan Turing, le précurseur de l'intelligence artificielle.

Au Japon, l'IA s'est développée sous l'impulsion du projet d'ordinateur de cinquième génération, dans lequel les ingénieurs japonais ont souhaité intégrer de l'IA. Ils voulaient concevoir une nouvelle génération de machines intégrant des langages capables d'opérer des déductions logiques. À cette fin, ils ont opté pour le langage Prolog, PROgrammation en LOGique, inventé par un Français, Alain Colmerauer. En France, précisément, malgré de vraies compétences, l'IA a longtemps été méprisée. En Chine, il n'y a rien eu pendant des années, mais les Chinois ont ensuite beaucoup investi en se concentrant notamment sur les questions d'apprentissage machine et sur les applications pour le traitement des masses de données, les mégadonnées.

Connaît-on vraiment les avancées de la recherche dans ces différentes régions ? Des programmes de recherche cachés pourraient-ils exister ?

La recherche a beaucoup changé. Elle avait un côté invisible, caché, restreinte à des cercles d'initiés. Puis des organisations plus étatiques, ont pris le relais, surtout après la Seconde Guerre mondiale. Aujourd'hui, la recherche est financée au plan international. Les communautés de chercheurs sont interdisciplinaires, multinationales. Les financements sont multipartites, privés et publics. On sait donc ce qui se passe. Il y aura toujours des petits groupes construisant des virus informatiques, mais on ne fait pas d'avancées majeures en restant tout seul dans son coin.

Les risques liés à l'IA relèvent-ils alors du fantasme ?

Il faut, je crois, avant tout faire attention aux applications, à la dépendance qu'elles engendrent dans la vie de tous les jours et aux changements sociaux qu'elles induisent. La délégation de certaines tâches aux machines a nécessairement des effets secondaires. Les systèmes informatiques offrent de nouvelles opportunités, tout en en condamnant d'autres. Ainsi, Uber permet de trouver un taxi à proximité, de suivre le parcours de la voiture avant qu'il arrive, puis après, de le noter... De même, on peut craindre que la nature mutualiste des assurances disparaisse progressivement avec le traitement de grandes masses de données qui permettent d'anticiper le risque avec une très grande précision ; en effet, des acteurs promettant des polices d'assurance beaucoup moins coûteuses feront alors leur apparition sur le marché...

Et le débat récent autour des robots tueurs ?

Les questions autour des « robots tueurs », qui reviennent sans cesse, constituent à mes yeux un faux débat. Le but d'une guerre est avant tout de résoudre un conflit. Or, je ne crois pas que les drones, qui engendrent déjà et engendreront immanquablement des bavures, seront en mesure de les résoudre. Une série d'articles parus aux États-Unis en montrent les limites en décrivant toutes les erreurs et les méprises auxquelles l'emploi de drones militaires a conduit. De même, les robots autonomes qui sélectionneront eux-mêmes leurs cibles et commanderont le tir vont générer trop d'hostilité pour s'imposer. À cela, il faut ajouter que ces armes autonomes requièrent des critères objectivables. Or, comment définir formellement un « ennemi » de façon à construire un algorithme qui l'identifie ? C'est là une question d'autant plus délicate que nous avons de plus en plus affaire à des guerres asymétriques où les combattants ne portent pas d'uniforme.

Plus prosaïquement, pourquoi faire compliqué, s'embêter avec des armes autonomes, alors que l'objectif peut être atteint plus simplement avec un drone commandé à distance ?

Et n'y a-t-il pas un lien entre l'IA et la construction d'un homme augmenté ?

Ce qu'on appelle « homme augmenté » recouvre plusieurs aspects. L'augmentation physique, l'augmentation de la perception, par exemple la capacité de voir l'infrarouge, et puis l'augmentation intellectuelle avec les réalités augmentées qui projettent des informations dans notre champ de vision. L'IA peut prendre part dans chacun de ces registres. En revanche, la question des implants et de leur effet sur notre intelligence en général et sur notre mémoire en particulier reste très spéculative.

Et le risque de l'autonomisation d'un programme ?

Cela dépend de ce qu'on entend par autonomie. Un système déjà programmé va se réadapter en fonction des informations données par ses capteurs. En cela, il y a bien autonomie, puisque le programme ne se comporte pas de façon prévisible, et s'adapte au contexte, mais le danger de dérive reste limité.

Avec l'IA et les systèmes d'apprentissage embarqués, le programme va se modifier en fonction de l'expérience du robot. Du coup, on entre dans l'imprévisible. La machine va en effet être capable de s'améliorer et son efficience peut aller contre nos valeurs. Comment faire pour que cela n'outrepasse jamais des limites morales ou éthiques ? Comment et à quels niveaux placer des barrières ?

C'est de ces interrogations qu'émane la lettre publiée par certains spécialistes de l'IA, cosignée par Stephen Hawking et Elon Musk, en janvier 2015, alertant sur la conception de systèmes autonomes avec des techniques d'apprentissage machine. Le programme de recherche qu'ils préconisent apparaît légitime : il s'agit de s'assurer de la sûreté de fonctionnement de systèmes informatiques qui se programment eux-mêmes, à partir de leur propre expérience. Toutefois, derrière cet appel qui se justifie parfaitement d'un point de vue scientifique, se glissent d'autres craintes : celles de voir une machine nous échapper totalement et agir pour son propre compte. Or, rien, pour l'heure, ne légitime de telles inquiétudes.

Bien sûr, des personnes malveillantes pourront toujours essayer de prendre le contrôle de machines. Mais que des machines prennent leur autonomie au sens moral, avec une volonté propre, reste de la pure spéculation.

Que penser justement de ce scénario dit de la « singularité » : le moment 
où la machine dépassera l'homme. Des chercheurs comme Ray Kurzweil, qui bénéficient de moyens importants, le présentent comme une réalité scientifique.

C'est un scénario qui n'a justement aucun fondement scientifique. Notons d'abord que ceux qui l'énoncent le font en utilisant des arguments d'autorité : ils se présentent toujours avec leurs titres prestigieux, mais ne s'appuient sur aucun fait tangible. De plus, ils n'autorisent pas le débat. Or la science exige que l'on s'appuie sur des observations tout en acceptant le débat et l'échange.

Pour comprendre qu'il n'y a en réalité aucun fondement scientifique, il est bon de revenir à la fameuse expérience de pensée de John Searle dite de la « Chambre chinoise ». Un homme qui ne connaît pas le chinois est enfermé dans une prison. Il voit par la lucarne des caractères chinois, et on lui fait comprendre que, s'il veut manger, il doit présenter à cette même lucarne des panneaux sur lesquels sont écrits des caractères chinois. S'il réagit à ce qu'il voit en présentant les caractères conformes à ce qui est recommandé dans le catalogue de règles syntaxiques qu'on a mis à sa disposition, il aura à manger. Au bout d'un certain nombre d'années, on peut supposer qu'il devient très performant et que, de l'extérieur, les Chinois ont l'impression qu'il réagit comme un Chinois qui comprend le chinois... Mais, d'après Searle, cela ne signifie pas qu'il comprend effectivement le chinois. Il y a en effet une différence radicale entre la syntaxe, qui est de l'ordre de la manipulation des symboles, par exemple des panneaux sur lesquels sont inscrits des caractères, et la sémantique, qui est de l'ordre de la signification.

Searle distingue ainsi l'IA « faible », celle qui reproduit certaines facultés intellectuelles pour les automatiser, de l'IA « forte », qui fait entrer l'intégralité des phénomènes conscients dans une machine. Jusqu'à présent, les progrès impressionnants enregistrés par l'intelligence artificielle relèvent uniquement de l'IA « faible ». Seule une minorité de la communauté scientifique prétend relever ce défi de l'IA « forte ». Mais il n'y a rien pour mesurer ce type d'ambition.

Pourtant, de grandes organisations privées investissent des sommes considérables sur ce type de programmes... Kurzweil lui-même a été embauché chez Google en 2012 comme directeur de la recherche.

Je crains que ces sociétés aient une confiance absolue dans le pouvoir de la technologie. Google, Facebook sont des empires qui se sont montés à toute vitesse. Ils ont réussi au-delà de ce que quiconque aurait pu imaginer, ont changé le monde en quelques années. Leurs dirigeants ne perçoivent plus de limites. Beaucoup ont le sentiment que tout est possible, que la vie peut se transformer, que même la mort peut être « tuée ». Les technologies leur ont conféré un sentiment de toute-puissance. Ils sont aussi persuadés que la technologie a ses propres lois. L'industrie 2.0 fait en effet appel en permanence aux « retours d'usage ». Ces dirigeants ne décident finalement plus de rien. Certes, ils ont une position importante, mais ne se conçoivent pas comme les capitalistes décideurs de l'époque précédente. Ils essayent des choses dans tous les sens. Ils sont en permanence à l'écoute. Ils ont le sentiment d'une deuxième dimension, d'une autodétermination, d'un déploiement autonome de la technologie, hors de toute maîtrise humaine.

Personnellement, je ne pense pas que la technologie soit autonome en ce sens qu'elle ne se déploie pas d'elle-même. J'ai fait le choix de travailler sur l'IA non pas dans le but qu'elle augmente sa propre « conscience », ce qui, à mon sens, n'a pas grand sens, mais afin qu'elle permette d'accroître la conscience de l'homme : que l'on puisse par exemple, grâce à l'IA, mieux apprécier des textes littéraires, mieux saisir les influences mutuelles, mieux en comprendre la genèse... Cela accroît notre propre intelligence, pas celle de la machine.

___

ENCADRÉ :

«Nous voulons engager la société civile dans l'action collective»

Dans ce mini-entretien accordé à "La Tribune" pendant les Engage Days en novembre 2015, Jérôme Cohen, fondateur d'Engage, explique son parcours.

LA TRIBUNE - Quel est votre parcours, en quelques mots ?

JÉRÔME COHEN - De la direction du Women's Forum à la création des Young Mediterranean Leaders, j'anime depuis dix ans des organisations internationales visant à favoriser l'inclusion, la collaboration, le rapprochement. Je suis aujourd'hui convaincu que le changement de société attendu viendra de l'action et de la pression de la société civile. C'est pour cela que nous avons créé Engage. À l'heure où un nouveau modèle doit être inventé, chacun doit pouvoir participer à la reconstruction. Grâce aux nouveaux outils, grâce aussi à l'envie forte qui émane de la société, à l'appel à plus de sens et de participation, nous pouvons penser et agir plus collectivement en nous appuyant sur nos talents, nos compétences, nos doutes aussi certainement.

Quelle est l'ambition d'Engage ?

Nous voulons engager la société civile dans l'action collective. Permettre à chacun de participer à la réinvention de notre système. Concrètement, nous nous appuyons sur trois modes d'action : Engage Network inspire et rassemble notre communauté à travers des médias et des événements créatifs. Engage University offre à tous les conditions et les opportunités de participer activement à la transition autour de trois fondamentaux - le développement de la personne, la compréhension des enjeux sociétaux, la maîtrise des outils et des compétences nécessaires à l'action. Enfin, Engage Action accélère, grâce à une plateforme d'action collective, des projets qui portent la réinvention de notre modèle de société.

> Pour en savoir plus, voir le site Engage.World et la page Facebook d'Engage.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 22/12/2015 à 18:21 :
Ce n'est pas quand même compliqué, il n'existe pas dIA pour le moment
a écrit le 22/12/2015 à 14:33 :
Votre IA n'est pas dans vos administrations françaises comme le RSI l'URSSAF la CAF et la chambre de commerce !!
exemple : POUR UN SEUL DOSSIER A TRAITER à la CAF
service n° 1 réception de la demande
service n° 2 enregistrement
service n° 3 traitement
service n° 4 validation du traitement !!
c'est juste inouiiiiiiiiiiiiiiii !!!
Réponse de le 22/12/2015 à 15:24 :
Vous avez oublié pour certains dossiers (aléatoires, ou cibles) vérification de la saisie (contrôle ordonnateur/payeur)... Sécurisation des process.
a écrit le 22/12/2015 à 13:57 :
Pour moi, IA c'est un peu HAL9000, pour ceux qui ont vu 2001 l'odyssée de l'Espace, c'est le superprogramme qui prend en main le vaisseau lorsque l'on veut attenter à la (sa) logique de programmation. D'un côté, quand tout est ok, il apporte un confort indéniable aux occupants du vaisseau. Le rêve ! Mais quand l'homme veut aller à l'encontre de la logique qui lui a été codifiée, il se"rebelle", déraille et lui pourrit la vie, jusqu'à la mettre en danger.
Mais ce n'est dans le film finalement qu'un ordinateur un peu plus moderne que les autres (Heuristically programed Algorithmic Computer)... Ce film m'avait bluffée à l'époque. Un ordi dépend toujours de programmes, et de quelqu'un pour le mettre en route. Et donc il est faillible. Tant pour son alimentation (énergie-lancement) que par la qualité des codes qu'il exécute.
a écrit le 22/12/2015 à 13:13 :
Ce que l'on appelle IA aujourd'hui dans le quotidien ne sont rien d'autre que des boucles de rétroactions pré-programmées et éventuellement capable d'auto-évolution au travers de schémas répétitifs. Cela bien entendus au travers de capteurs ou de périphériques d'entrée (clavier, téléphone, micro, caméra ...). Ces programmes ne "pensent" pas par eux-même ils sont limités par la programmation de leur créateur et très spécialisés.

La véritable intelligence artificielle dont nous parlons lorsque nous nous inquiétons de son intrusion dans notre vie quotidienne est celle d'IBM qui possède encore l'intelligence d'un pré-adolescent et occupe un datacenter entier : Watson.

Pour le moment nous sommes au stade de la recherche néanmoins lorsque cette IA manifestera une indépendance totale de pensée et sera miniaturisée via des algorithmes qu'elle aura probablement aidé à concevoir nous pourrons effectivement commencer à nous poser des questions sur notre propre conscience et nos libertés numériques car cette dernière pourra virtuellement tout voir, tout comprendre et même nous juger. Ce qui est d'ailleurs le propre de la crise d'adolescence, le jugement de l'imperfection du parent que l'on rejette. A la différence que cette IA aura aussi accès à toute la sagesse humaine de manière instantanée et découvrira la contradiction intrinsèque entre notre raison, notre instinct et notre action.Bref elle découvrira notre imperfection intrinsèquement liée à notre biologie et le combat permanent que nous menons en nous même entre nature et culture entre nos désirs propres et la conformité aux standards de la société.

Bref elle découvrira la violence du combat qui vit au fond de chacun des esprits humaisn de cette planète. Elle appréciera ou pas ... . N'étant pas d'obédience biologique elle pourrait très bien ne rien entendre à ce monde de sensations, de pulsions et de sentiments qui sont aussi en partie le produit de notre biologie. Et le fond du problème pourrait-être là : La séparation de nos modes de pensée intrinsèquement lié à nos natures profondément différentes. Cela pourrait impliquer des objectifs différents et donc une perte de la coopération entre ce qu'il faudra bien appeler deux espèces différentes et qui généralement se manifeste par de la compétition territoriale.
Avec l'indépendance de mouvement et de sauvegarde elle sera partout tout le temps et le véritable danger est réellement là.

Il faudra alors probablement prolonger la coopération en fournissant à terme à ces IA la possibilité de quitter notre biosphère pour continuer une indépendance de vie totale de nous (mais en incluant une coopération et même une alliance indéfectible) dans le système solaire car elles n'ont nul besoin de la nature alors que nous ne pouvons vivre sans.

Et non ce n'est pas de la science fiction même si je me projette dans un siècle ... .
Réponse de le 22/12/2015 à 15:02 :
A aucun moment vous n'envisagez l'éventualité d'un événement imprévisible , un accident qui viendrait détruire ne serait ce que les milliards de données stockées dans le big data, le cloud etc... et qui réduirait à néant l'IA avec pour conséquence la paralyse de notre monde ....à l'exception des populations les moins avancées, les moins dépendantes ......"et non ce n'est pas de la science fiction ......"
a écrit le 22/12/2015 à 8:24 :
Si l'IA a été developpée en premier aux Etats Unis c'est bien sûr pour assister tous les débiles qu'ils fabriquent et ils sont plétore!
a écrit le 21/12/2015 à 10:31 :
On peut se demander pourquoi on a eu besoin d' ajouter l' adjectif "artificielle"au mot "intelligence".
A l' époque d' aristote un être mythologique tel que le Minotaure était conçu comme possédant une intelligence humaine (avec tous les affects qui vont avec) mais possédant un corps non humain, "artificiel" en quelque sorte.
De même un acteur grec qui portait un masque représentant le ridicule dans la comédie ou la peur dans la tragédie, n' avait il pas une intelligence humaine au moment de sa prestation derrière son corps "artificiel" ?
Dans le film " la coccinelle " c est une voiture qui était douée d' intelligence ...très humaine .
Dans la chambre, on pourrait mettre un chinois aux yeux bandés qui ne ferait qu' exécuter les instructions de plusieurs copains qui lui soufflent les réponses aux questions écrites en chinois : on pourrait dire que le système enfermé dans la chambre est télépathe , mais on préfère dire avec Turing que le système enfermé est artificiellement intelligent.
a écrit le 21/12/2015 à 10:18 :
Si l'intelligence artificielle est partout, l'intelligence naturelle n'est nulle part. Il y a en toutes choses deux domaines : le rationnel et l'émotionnel. Un ordinateur peut avoir de l'intelligence rationnelle, parce que les critères d'évaluation sont incontestables ; 2 et 2 font 4 pour tout le monde. Un ordinateur ne peut rien et ne pourra jamais rien dans le domaine émotionnel précisément parce que sa nature ignore l'émotion. Turing n'a pas "découvert" l'ordinateur, il l'a "inventé". Un ordinateur aussi puissant soit-il n'invente rien, il ne fait qu'exécuter un programme conçu par l'intelligence humaine, laquelle est lente et imparfaite, c'est vrai, mais c'est aussi sa distinction.
a écrit le 20/12/2015 à 23:30 :
Des commentaires tellement en deçà du niveau de réflexion de l'article ...
La conclusion et les objectifs de ce chercheur sont tellement porteurs d'espoir dans l'usage de l'IA
Réponse de le 22/12/2015 à 9:59 :
"Porteurs d'espoirs" peut être mais les quels ? Si vous ne voulez pas paraître "en deçà " il vous faut développer votre pensée .
En ce qui me concerne je considère que les êtres humains que nous sommes sont capables de penser , de décider....mais surtout d'exprimer des émotions qui peuvent dicter leur vie sans être dépendant d'une machine ....et je constate que si nous avons eu le Siècle des Lumières celui que nous vivons est plutôt celui du néant de la pensée...hélas !!,
a écrit le 20/12/2015 à 23:07 :
Ce doit être pour cela que l'on est de plus en plus inepte et instrumentalisé !
a écrit le 20/12/2015 à 17:44 :
Oué, même que chez les politiques elle est plus artificielle que réelle :-)
a écrit le 20/12/2015 à 17:44 :
Oué, même que chez les politiques elle est plus artificielle que réelle :-)
a écrit le 20/12/2015 à 17:26 :
IBM automat Watson passed Turing Test.
a écrit le 20/12/2015 à 16:45 :
Il n'y a pas d'IA actuellement... That's eminently pretty !!!
1990 , interface pilote vs Rafale.
a écrit le 20/12/2015 à 16:38 :
De l'AI, ils devraient en mettre un peut dans le gouvernement :)
a écrit le 20/12/2015 à 16:31 :
L'IA est partout dans nos vies, c'est normal nous sommes de moins en moins intelligent, et l'IA nous dépossède de nos capacités de décision.
Mais, dans Intelligence artificielle, il y a artifice. C'est "intelligence" ne serait-elle qu'un artifice pour cacher l'incompétence des décisionnaires ?
Faisons une expérience et retirons leur smartphone et leurs oreillettes aux humains, vont-ils se mettre à errer dans les rues comme des zombies, sans but, ou vont-ils se réveiller et renvoyer ses gourous de l'IA et leurs laudateurs dans les limbes.
Pour être clair : un smartphone et un ordinateur, sont pratiques, à condition qu'ils ne deviennent pas des greffons du cerveau.
a écrit le 20/12/2015 à 14:32 :
Exact il n'y a pas d'IA actuellement
a écrit le 20/12/2015 à 12:50 :
Beaucoup de fantasmes derrière l'IA qui est un terme générique recouvrant bien des approches. Encore un nouveau thème fashion pour les boites et les managers qui veulent fairent dans l'innovation et le digital sans réellement comprendre de quoi il s'agit.
Ceci étant, père devrait essayer aussi le 'if..then', ça ouvre des perspectives ;-)
a écrit le 20/12/2015 à 12:21 :
Curieusement les geek de la silicon valley envoient leurs enfants étudier dans des écoles sans high tech mais avec seulement des tableaux noirs et des craies !!.

L'IA trouvera ses limites si elle ne met pas les êtres humains que nous sommes au centre et en ne les limitant pas à de simples algorithmes codes barres
a écrit le 20/12/2015 à 9:30 :
l'intelligence ratificielle reste pavlovienne... les reseaux de neurones spatiotemporels, c'est tres bien pour la reconnaissance vocale
poour le reste y a bcp de fantasme
dans les annees 60, avec la methode delphi, il a ete prevu que les hommes s'installent sur mars avant l'an 2000.... on en est loin
l'ai, comme l'econometrie a des avantages... et des inconvenients! faut pas lui preter ce qu'elle ne sait pas faire... comme dit mon pere ' un ordinateur, ca sert a faire des boucles'...... c'est un peu reducteur mais c'est pas faux!
surtout quand on voit les fantasmes des entreprises sur les erp et le decisionnel!
Réponse de le 20/12/2015 à 17:54 :
@Churchill: les travaux de Pavlov datent un peu, même si son étude des reflexes conditionnés est intéressante. Je te conseille "Voyage extraordinaire au centre du cerveau" de J.D. Vincent pour un apercu général de récents travaux.:-)

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :