Nous et les machines

 |  | 977 mots
Lecture 5 min.
(Crédits : Reuters)
HOMO NUMERICUS. Les machines nous demandent sans cesse de prouver notre humanité en cliquant sur des textes ou des images. Autant d'actions qui leur permettent de mieux appréhender notre monde pour, au final, s'y faire une place grandissante. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.

Depuis que la machine me demande de sélectionner des images d'horodateurs, de bus, de lampadaires, de feux de signalisation, de toits, ou encore, de passages piétons, je suis presque devenu un spécialiste de la ville et de ses équipements. Alors que je navigue sur un site ou que je viens à peine de m'inscrire pour recevoir une newsletter, la machine fait soudainement barrage sauf à lui prouver que je suis un « vrai » humain et non un robot. Pour décliner notre identité numérique, il suffit que nous passions et réussissions un test dit « Captcha », conçu pour différencier les êtres humains des ordinateurs et ainsi prévenir toute tentative de piratage.

Si, dans le meilleur des cas, on nous demande de saisir une suite de lettres déformées rappelant vaguement une écriture enfantine, il se peut que l'examen se complique si la machine veut qu'on lui désigne toutes les images qui montrent des panneaux « Stop ». Au passage, et pour avoir vécu cette expérience, j'avoue avoir hésité pour savoir si je devais inclure dans ma sélection une de ces images qui expose un minuscule morceau de panneau en bas à gauche alors que l'essentiel de la photo fait la part belle au poteau qui soutient l'ensemble.... Qui ne tente rien n'a rien !

Test de Turing

Captcha (à prononcer de préférence avec un fort accent texan «capture » du verbe « attraper ») est avant tout l'acronyme de « Test de Turing ayant pour but de différencier les humains des ordinateurs ». En version originale : "Completely Automated Public Turing test to tell Computers and Humans Apart".

Créé par le mathématicien britannique Alan Turing au début des années 1950, ce test a été conçu sur la faculté d'une machine à imiter la syntaxe et la conversation humaine. Si, au terme de ce test, l'humain hésitait à dire lequel de ses interlocuteurs était une machine, alors cette dernière était déclarée vainqueur.

Captcha et ReCaptcha

Devenue marque commerciale déposée par l'université Carnegie-Mellon[1] aux États-Unis, le test Captcha a dû s'adapter au fait que les machines, de plus en plus perfectionnées, savaient imiter un comportement humain jusqu'à réussir à créer des comptes factices, voire initier des achats.

Pour contrer la machine, il fallut donc renforcer la difficulté en créant de nouvelles générations de tests, encore plus complexes, mais toujours assis sur le principe de déchiffrement de mots et de lettres.

En 2009, Google développa son propre « Captcha » qu'il baptisa « ReCaptcha ». Avec ses milliards de requêtes quotidiennes, l'idée étant de soumettre aux humains des reconnaissances partielles de textes, ce qui permettait ensuite aux machines de Google de « comprendre », puis de numériser des millions de pages de journaux (dont les archives du New York Times[2]) et de livres. Sans même nous en apercevoir, il est quasiment certain que nous avons dû aider les machines de Google à identifier lettres, textes, articles, livres, et partant, des pans entiers de savoirs. En somme, une numérisation réussie à peu de frais...

Nourrir l'intelligence artificielle

Depuis plus récemment, ces tests destinés à nous distinguer des machines sont utilisés par Google pour l'aider à développer sa technologie de voiture autonome. Grâce à nos identifications d'un feu de signalisation, d'un panneau « stop » ou encore d'un passage piéton, Google emmagasine nos réponses et nourrit ses algorithmes d'intelligence artificielle qui seront embarqués dans les futurs véhicules autonomes.

Là encore, sans nous en rendre compte, nos millions de clics et de mouvements de souris aident la voiture intelligente de Google à reconnaître nos paysages urbains.

Je me suis toujours demandé si, en cochant volontairement une mauvaise case, je deviendrais la cause d'un terrible accident du fait que j'aurais pris un malin plaisir à brouiller les cartes de cette « IA » censée reconnaître à tous les coups un panneau d'arrêt complet.

Si tout le monde s'appliquait à faire tourner l'IA en bourrique, nous pourrions même supposer arriver à quelques absurdités comme faire en sorte qu'une voiture autonome s'arrête systématiquement devant une bouche à incendie au motif que celle-ci présente quelques similitudes avec des piétons attendant pour traverser... Une belle pagaille en perspective.

Catégoriser le monde

Que cela soit pour entraîner les logiciels des voitures autonomes à identifier tout ce qui compose son futur environnement ou, dans une moindre mesure, à identifier un « vrai » humain, toutes ces techniques de reconnaissance ont pour objectif de catégoriser le monde qui nous entoure.

Cette quête de la classification ne date pas de l'avènement de l'intelligence artificielle. Déjà, au IVe siècle avant notre ère, Aristote avait entrepris de créer un outil spécifique -l'Organon - capable de comprendre la pensée et dont le but était de classer le monde en de multiples catégories touchant aussi bien aux éléments de la nature que de la pensée humaine dans toute sa complexité.

Sur le fond, et depuis cette époque, les choses n'ont pas tellement changé. Sauf qu'à présent, les scientifiques qui collaborent à ces projets d'intelligence artificielle cherchent à catégoriser le monde pour le transformer en données compréhensibles et interprétables par des machines.

De cette « data-isation » du monde, dépendra notre état de dépendance grandissante aux algorithmes et autres réseaux neuronaux d'apprentissage, bref, aux intelligences artificielles qui nous entourent. Difficile de résister à cette déferlante sauf à décider de se moquer des machines en leur donnant sciemment des informations erronées. C'est décidé : lors d'un prochain test « ReCaptcha » que la machine me proposera, je cliquerai sur la pastille de la borne à incendie en lieu et place du lampadaire. Façon toute personnelle de lui faire prendre des vessies pour des lanternes.

___

NOTES

1http://www.captcha.net/

2https://www.nytimes.com/2011/03/29/science/29recaptcha.html

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 22/04/2021 à 15:58 :
Et dans l’autre sens ?
Comment je sais si c’est une machine en face de moi ou un humain ? Comment je peux vérifier cet «  petit détail » en tant que «  simple humain »?
a écrit le 22/04/2021 à 15:41 :
Merci beaucoup pour cet article passionnant pile poil dans l'air du temps et bravo. Pour ma part j'aime bien laisser les fautes d'orthographes dans les recherches google afin de ne pas cliquer sur le" ne vouliez vous pas écrire plutôt...". Non je veux laisser mes fautes d'orthographes ou de syntaxes et tout ce qui pourra te contrarier google ! ^^

Et le pire est que c'est en cherchant à l'induire en erreur qu'on le perfectionnera bien mieux que tout ces comportement stéréotypés auxquels il nous condamnent, du moins leurs informaticiens vu qu'il n'y a pas d'intelligence artificielle et c'est pas demain la veille sauf accident bien évidemment, parce que leur quête de vouloir faire ressembler à tout prix leurs machines aux humains c'est condamner les deux à la médicorité généralisée, à la bêtise programmée.

Parce que pour ma part j'espère réellement que l'humain inventera cette intelligence artificielle qui pourrait enfin prendre la suite d'une humanité que la cupidité pathologique et exponentielle marchande a totalement dévasté ainsi que son environement naturel. Et déjà d'avoir éradiqué la moitié de la vie sur terre c'est éradiquer la moitié des éléments pouvant permettre de comprendre le comportement humain, autant dire qu'ils sont totalement à côté de la plaque mais ils s'en tapent leur but étant avant tout de nous vendre un énième truc et certainement pas de faire progresser l'humanité ce qu'une véritable IA elle génèrerait.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :