Pose d'un implant cérébral sur un humain : « L’annonce d’Elon Musk pose des questions inédites en matière de cybersécurité » (Emmanuel Methivier, Axway)

ENTRETIEN - Neuralink, société américaine fondée par Elon Musk qui ambitionne de développer des interfaces cerveau-machine, a réalisé avec succès son premier implant sur un humain. Celui-ci s’inscrit dans une phase d’essais cliniques visant à aider certains patients à retrouver l’usage de leurs sens. Si la commercialisation est encore lointaine, cette annonce invite à s’interroger d’urgence sur la sécurité des futures interfaces hommes-machines, selon Emmanuel Methivier, en charge du conseil et de la transformation digitale chez Axway, premier éditeur de solutions d'intégration d'API français.
Emmanuel Methivier, en charge du conseil et de la transformation digitale chez Axway, premier éditeur de solutions d'intégration d'API français.
Emmanuel Methivier, en charge du conseil et de la transformation digitale chez Axway, premier éditeur de solutions d'intégration d'API français. (Crédits : Axway)

LA TRIBUNE - Elon Musk a annoncé il y a quelques jours que son entreprise Neuralink avait posé avec succès un implant cérébral sur un patient humain. Les premiers résultats montreraient « une détection prometteuse de l'activité neuronale ». S'agit-il d'un effet d'annonce ou d'une vraie révolution ?

EMMANUEL METHIVIER - On ne peut qu'être impressionné par l'annonce de Neuralink. Même un Ray Kurzweil, pape du transhumanisme, n'imaginait pas l'émergence d'une interface de communication cerveau-machine avant 2035. Si même lui, qui baigne pourtant dans ce domaine, n'avait pas anticipé la vitesse d'évolution de la technologie, nous tendons, pour notre part, sans doute à la sous-estimer encore davantage.

Or, rien n'a été pensé sur les problématiques que soulève l'émergence d'interfaces de communication hommes-machines : si Neuralink est capable d'identifier des pics d'activité du cerveau en fonction d'un certain nombre de stimuli, la lecture directe du cortex cérébral semble en bonne voie. Or, à partir du moment où l'on peut lire les impulsions électriques qui viennent des synapses, on peut aussi en écrire, donc on peut potentiellement fabriquer de la mémoire ou de l'intelligence... Cela soulève des interrogations vertigineuses en matière d'augmentation du cerveau humain.

Mais l'annonce d'Elon Musk pose aussi des questions inédites en matière de sécurité de ces interfaces : comment éviter que, demain, des hackers puissent s'y introduire et manipuler un cerveau ? À partir du moment où un système d'information communique avec un autre à travers des interfaces de programmation d'application (APIs), on peut potentiellement lui faire faire ce qu'on veut, d'où un risque de brain hacking. Ce sont des questions qu'il faut se poser dès maintenant.

Lire aussiIA générative : Elon Musk à la pêche aux milliards pour faire entrer xAI dans la cour des grands

Ce n'est qu'une première annonce de Neuralink, Elon Musk s'est déjà montré beaucoup trop ambitieux dans ses prédictions et de nombreux scientifiques sont sceptiques quant à ses promesses... Ne va-t-on pas un peu vite en besogne ?

Nous sommes de mon point de vue très mal placés pour prédire efficacement le cycle d'évolution de ces technologies. Le fait qu'un premier implant humain ait été posé avec succès constitue dans tous les cas un signal qu'il est grand temps de se pencher sur ces questions, de faire des choix en matière de sécurité et de gouvernance.

D'autant qu'Elon Musk a tout de même prouvé à travers Tesla, Starlink et OpenAI qu'il savait concrétiser ses visions et en faire des technologies transformatrices.

Enfin, il vaut mieux commencer à réfléchir trop tôt que trop tard : les voitures autonomes n'ont pas encore été déployées à grande échelle, mais le jour où elles le seront, nous ne serons pas démunis, car nous avons construit toute une réflexion autour depuis des années.

Justement, comment le monde de la cybersécurité doit-il selon vous se préparer à l'émergence de ces interfaces cerveau-machine ?

Je vois pour ma part deux axes principaux. Le premier est celui des mécanismes de certification garantissant la sécurité des systèmes d'information et des APIs. Il faudra à mon sens impérativement que celles-ci soient certifiées EAL 4+, la plus haute certification civile, qui impose un certain nombre d'impératifs sécuritaires en matière de développement, de tests, d'interfaces, etc.

Le second est celui de la souveraineté des données : à mon sens, l'usage d'un cloud qui ne soit pas sous gouvernance nationale serait une erreur. Il faudra donc passer soit par un cloud français, soit par du stockage sur site.

Lire aussiIntelligence artificielle : OpenAI veut lutter contre la désinformation pour la présidentielle américaine

N'est-ce pas illusoire alors qu'il semble de plus en plus difficile de se passer des hyperscalers, ces géants américains du cloud ? La CNIL vient d'autoriser le Health Data Hub à héberger des données de santé chez Microsoft...

Il ne peut pas y avoir de souveraineté en dehors d'une gouvernance nationale, et quand on identifie un risque d'attaque comme le brain hacking on est en droit de demander de la souveraineté.

C'est un problème qui, du reste, dépasse largement celui des interfaces cerveau-machine. Lorsqu'on confie nos données de santé à un cloud américain, cela implique que les informations médicales des Français puissent être exploitées à distance d'une manière ou d'une autre. Mais cela pose aussi la question de la disponibilité de nos systèmes d'information de santé : quelle que soit la localisation des machines, si vous avez un opérateur qui échappe à la gouvernance nationale, il peut fermer le service.

On l'a vu durant l'invasion de l'Ukraine, suite à laquelle les États-Unis ont coupé du jour au lendemain l'accès à leurs services cloud aux Russes. Si demain, nous sommes dans une configuration géopolitique qui nous fait entrer en conflit avec nos opérateurs cloud, on se retrouvera donc face à un énorme problème. Là encore, mieux vaut l'anticiper dès aujourd'hui.

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 07/02/2024 à 10:50
Signaler
Bonjour, Si cette nouvelle technologie pose des PB moraux, pour la maladie de Charcot très handicapante il ne s'agit que d'un manque de transferts d'infos donc électriques d'une zone de tri vers des organes éloignés comme ce qui concerne la marche p...

à écrit le 06/02/2024 à 23:30
Signaler
Quel horreur déshumanisant. La race humaine est bel et bien sur la voie de la Matrice. Je suppose que tout le monde a oublié le film de 1999, pourtant emblématique. Moi, je le rappelle comme s'il était hier. Ou quelqu'un a-t-il transmis une mémoire f...

à écrit le 06/02/2024 à 19:17
Signaler
Comme vous dites, le deep learning, surtout lui, devrait nous imposer de réfléchir beaucoup et maintenant mais voilà nos décideurs ne sont pas paramétrés à réfléchir seulement à encaisser on ne peut donc pas compter sur eux, j'ai annoncé une boucheri...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.