LA TRIBUNE - Elon Musk a annoncé il y a quelques jours que son entreprise Neuralink avait posé avec succès un implant cérébral sur un patient humain. Les premiers résultats montreraient « une détection prometteuse de l'activité neuronale ». S'agit-il d'un effet d'annonce ou d'une vraie révolution ?
EMMANUEL METHIVIER - On ne peut qu'être impressionné par l'annonce de Neuralink. Même un Ray Kurzweil, pape du transhumanisme, n'imaginait pas l'émergence d'une interface de communication cerveau-machine avant 2035. Si même lui, qui baigne pourtant dans ce domaine, n'avait pas anticipé la vitesse d'évolution de la technologie, nous tendons, pour notre part, sans doute à la sous-estimer encore davantage.
Or, rien n'a été pensé sur les problématiques que soulève l'émergence d'interfaces de communication hommes-machines : si Neuralink est capable d'identifier des pics d'activité du cerveau en fonction d'un certain nombre de stimuli, la lecture directe du cortex cérébral semble en bonne voie. Or, à partir du moment où l'on peut lire les impulsions électriques qui viennent des synapses, on peut aussi en écrire, donc on peut potentiellement fabriquer de la mémoire ou de l'intelligence... Cela soulève des interrogations vertigineuses en matière d'augmentation du cerveau humain.
Mais l'annonce d'Elon Musk pose aussi des questions inédites en matière de sécurité de ces interfaces : comment éviter que, demain, des hackers puissent s'y introduire et manipuler un cerveau ? À partir du moment où un système d'information communique avec un autre à travers des interfaces de programmation d'application (APIs), on peut potentiellement lui faire faire ce qu'on veut, d'où un risque de brain hacking. Ce sont des questions qu'il faut se poser dès maintenant.
Ce n'est qu'une première annonce de Neuralink, Elon Musk s'est déjà montré beaucoup trop ambitieux dans ses prédictions et de nombreux scientifiques sont sceptiques quant à ses promesses... Ne va-t-on pas un peu vite en besogne ?
Nous sommes de mon point de vue très mal placés pour prédire efficacement le cycle d'évolution de ces technologies. Le fait qu'un premier implant humain ait été posé avec succès constitue dans tous les cas un signal qu'il est grand temps de se pencher sur ces questions, de faire des choix en matière de sécurité et de gouvernance.
D'autant qu'Elon Musk a tout de même prouvé à travers Tesla, Starlink et OpenAI qu'il savait concrétiser ses visions et en faire des technologies transformatrices.
Enfin, il vaut mieux commencer à réfléchir trop tôt que trop tard : les voitures autonomes n'ont pas encore été déployées à grande échelle, mais le jour où elles le seront, nous ne serons pas démunis, car nous avons construit toute une réflexion autour depuis des années.
Justement, comment le monde de la cybersécurité doit-il selon vous se préparer à l'émergence de ces interfaces cerveau-machine ?
Je vois pour ma part deux axes principaux. Le premier est celui des mécanismes de certification garantissant la sécurité des systèmes d'information et des APIs. Il faudra à mon sens impérativement que celles-ci soient certifiées EAL 4+, la plus haute certification civile, qui impose un certain nombre d'impératifs sécuritaires en matière de développement, de tests, d'interfaces, etc.
Le second est celui de la souveraineté des données : à mon sens, l'usage d'un cloud qui ne soit pas sous gouvernance nationale serait une erreur. Il faudra donc passer soit par un cloud français, soit par du stockage sur site.
N'est-ce pas illusoire alors qu'il semble de plus en plus difficile de se passer des hyperscalers, ces géants américains du cloud ? La CNIL vient d'autoriser le Health Data Hub à héberger des données de santé chez Microsoft...
Il ne peut pas y avoir de souveraineté en dehors d'une gouvernance nationale, et quand on identifie un risque d'attaque comme le brain hacking on est en droit de demander de la souveraineté.
C'est un problème qui, du reste, dépasse largement celui des interfaces cerveau-machine. Lorsqu'on confie nos données de santé à un cloud américain, cela implique que les informations médicales des Français puissent être exploitées à distance d'une manière ou d'une autre. Mais cela pose aussi la question de la disponibilité de nos systèmes d'information de santé : quelle que soit la localisation des machines, si vous avez un opérateur qui échappe à la gouvernance nationale, il peut fermer le service.
On l'a vu durant l'invasion de l'Ukraine, suite à laquelle les États-Unis ont coupé du jour au lendemain l'accès à leurs services cloud aux Russes. Si demain, nous sommes dans une configuration géopolitique qui nous fait entrer en conflit avec nos opérateurs cloud, on se retrouvera donc face à un énorme problème. Là encore, mieux vaut l'anticiper dès aujourd'hui.
Sujets les + commentés