« Il faut s'attendre à des cyberattaques entièrement automatisées par l'IA générative » (Mikko Hyppönen)

ENTRETIEN. Chercheur en cybersécurité de renommée mondiale, auteur et conférencier, Mikko Hyppönen est une des voix les plus écoutées de son secteur depuis une trentaine d'années. Logiciels malveillants entièrement automatisés, deepfake ultra-réalistes, fausses annonces Airbnb... L'expert, également directeur de recherche du géant finlandais WithSecure, dissèque pour La Tribune les effets de la révolution de l'intelligence artificielle sur les cybermenaces.
Mikko Hyppönen, directeur de recherche chez WithSecure, est une des voix les plus respectées de la cybersécurité.
Mikko Hyppönen, directeur de recherche chez WithSecure, est une des voix les plus respectées de la cybersécurité. (Crédits : DR)

LA TRIBUNE- Quels effets l'explosion de l'intelligence artificielle générative a-t-elle eu chez les cybercriminels ?

MIKKO HYPPÖNEN - Il se passe chez eux la même chose qu'il s'est passée chez nous, les défenseurs, depuis quelques années. L'IA a accéléré notre capacité de travail, et nous a permis d'accomplir plus en moins de temps, de sorte que nous avons développé des outils très performants.

Chez les malfaiteurs, c'est le même phénomène. En avril, nous avons observé le premier malware [logiciel malveillant, ndlr] qui réécrit automatiquement son code. Puis cet été, nous avons découvert des arnaques au bitcoin élaborées qui s'appuyaient sur des deepfake [images réalistes générées par des IA, ndlr] très convaincants d'Elon Musk. Les IA ont aussi permis aux cybercriminels de créer des fausses annonces Airbnb beaucoup plus difficiles à détecter.

La menace que nous n'avons pas encore vue, mais qui s'approche forcément, c'est l'automatisation complète de campagnes de malware. Un logiciel malveillant construit autour de l'IA générative serait capable d'identifier quels éléments sont bloqués par les défenses afin de les réécrire ; d'enregistrer un nouveau nom de domaine si celui où il est hébergé est banni ; ou encore de changer la formulation d'un email de phishing qui ne passerait pas les filtres de sécurité. Le tout, automatiquement. Aujourd'hui, les défenses réagissent très vite grâce à l'IA, face à des attaques très lentes, qui nécessitent des interventions manuelles. Les malfaiteurs ont donc un retard à rattraper.

Entre défenseurs et attaquants, à qui profite le plus l'IA générative ?

Si les intelligences artificielles excellent pour générer du texte, des images ou de la voix, elles excellent aussi à reconnaître le texte, les images et la voix. Concrètement, le meilleur moyen de détecter un deepfake est de demander à une IA générative si l'image est réelle ou non. Les nouvelles technologies profitent donc autant à chacun des deux camps, mais avec des applications différentes.

Je vois les organisations que je surnomme « les licornes » s'emparer de la technologie en premiers. Cette catégorie désigne les opérateurs de rançongiciel les plus connus comme BlackCat, Clop ou encore Quantum Locker. Ils ont l'argent, le savoir-faire et la puissance de frappe pour mettre en place des campagnes entièrement automatisées. À vrai dire, je suis surpris qu'ils ne l'aient pas encore fait.

Mais les défenseurs sont prêts. Nous pensons que nous allons gagner quand ils vont attaquer, car nous bénéficions depuis de nombreuses années des capacités de l'intelligence artificielle. Nos systèmes d'IA devraient être supérieurs aux leurs, même si nous ne pouvons pas le savoir avec certitude tant que les cyberattaques n'ont pas basculé dans le tout IA.

Concrètement, les malfaiteurs ont-ils déjà accès à des « ChatGPT malveillants » ?

Au moins trois versions modifiées de Llama [le principal modèle d'IA de Meta, ndlr], dépouillées des restrictions de sécurité, circulent déjà : RogueGPT,  BlackGPT et WormGPT. Les plus grandes organisations cybercriminelles dont je parlais plus tôt, qui disposent de compétences en IA, n'ont pas besoin de ces outils. En revanche, pour ceux qui n'ont pas ce savoir-faire, c'est une aubaine.

Grâce à ces logiciels, n'importe qui peut générer des emails de phishing ou des arnaques au président, dans n'importe quelle langue, et rapidement  ! Les arnaqueurs vont ainsi pouvoir viser efficacement un plus grand nombre de cibles en simultané et multiplier leurs chances de réussite.

Mais il faut tout de même apporter une nuance : ces IA malveillantes ne sont pas téléchargeables. Leurs opérateurs copient le modèle d'OpenAI avec ChatGPT : ils donnent un accès au service, en échange d'un abonnement, puis font payer en fonction des utilisations, ce qui limite leur diffusion.

En juillet, Meta a publié en open source un de ses plus grands modèles d'intelligence artificielle générative Llama-2. Cette décision a été critiquée par une partie du secteur, qui pointe le risque d'une mainmise par les cybercriminels. Pour une meilleure cybersécurité, faut-il garder ses modèles fermés, comme l'ont fait OpenAI ou Google ?

C'est un vaste sujet, et les mentalités évoluent constamment. Il suffit de voir le virage à 180 degrés opéré par OpenAI, passé en quelques années d'une ouverture partielle de ses modèles à une fermeture totale. Pour Llama, la situation est différente : Meta l'a d'abord publié en accès réservé aux chercheurs, mais les détails du modèle ont fuité dès mars. Ce n'est qu'après que Meta a pris sa décision de l'ouvrir entièrement. Mais ils ne sont pas les seuls à faire de l'open source. On peut notamment citer Stability AI en Europe, connu pour son générateur d'images Stable Diffusion.

D'un côté, l'open source offre la possibilité d'examiner minutieusement le fonctionnement des modèles. Mais de l'autre, j'entends ceux qui disent que les IA génératives sont devenues tellement puissantes que les ouvrir à tous est dangereux. Que se passe-t-il si les gouvernements non démocratiques mettent la main sur ces outils ? Il est évidemment préférable qu'ils n'arrivent pas dans les mains de ce genre de personnes. Ensuite, encore faut-il qu'ils aient les compétences pour retirer les restrictions mises en place par les développeurs.

L'avantage du modèle fermé, c'est que le développeur de l'IA garde un certain contrôle sur son utilisation. Par exemple, OpenAI bannit les utilisateurs qui ne respectent pas ses conditions d'utilisation. Il peut fermer leur accès au modèle, et empêcher toute connexion depuis certains endroits du monde. Au final, je suis moi-même partagé sur la question. Je suis finlandais, le pays de Linus Torvalds, le créateur de Linux, qui a créé l'open source et démontré ses bienfaits. Mais j'en vois aussi les limites.

Lire aussiCourse à l'IA : « Les entreprises ne peuvent pas se permettre de sacrifier l'éthique »

Sujets les + lus

|

Sujets les + commentés

Commentaires 7
à écrit le 23/09/2023 à 12:08
Signaler
Quand on est pratiquement obligé de mettre sur nos mobiles "hautement sécurisés" (macron s'en souvient) , nos comptes banquaires, c'est scandaleux ! Pour un paiement de 20 euros sur internet, vous êtes obligé d'ouvrir sur un ordinateur l'accès à vos ...

à écrit le 23/09/2023 à 9:00
Signaler
Quand on vous dit qu'il n'y aura jamais rien de résilient dans le domaine de l'électronique et numérique... faut il le croire ? ;-)

à écrit le 23/09/2023 à 8:48
Signaler
Pendant ce temps on démantèle ATOS (comme ALSTOM Énergie d'ailleurs), des gâchis bien français, comme Marianne je me retourne pour pleurer. Là où passent les pantouflards les sociétés trépassent. Pire ces princes nous donnent des leçons.

à écrit le 23/09/2023 à 6:23
Signaler
Il est pourtant facile de se proteger. Disques dur personnels connectes sur un ordinateur equipe pour filtrer tous les messages, spam, pub, fausses infos administratives etc... En cas de doute la machine va mettre de cote et analyser les suspects. C...

le 23/09/2023 à 11:10
Signaler
"En dix huit ans d'activite pas un seul probleme" Ce qui ne veut pas dire que tu ne te sois jamais fait voler tes données.

à écrit le 22/09/2023 à 20:04
Signaler
Et comme la France demeure particulièrement inefficiente (encore une fois de plus) sur la cybercriminalité et la protection des données, on imagine aisément la suite🙈🙊🙉

à écrit le 22/09/2023 à 19:13
Signaler
Et nous avons toutes nos données importantes sur internet, mauvais timing ou bon timing ? Hum...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.