La startup française Giskard, futur maillon indispensable dans l'écosystème de l'IA générative ?

Alors que le sujet des risques liés aux hallucinations et aux biais de ChatGPT et ses concurrents prend de plus en plus de place, la startup française Giskard se positionne comme garante de la qualité des intelligences artificielles génératives. Elle espère imposer son service de certification des IA comme un tiers de confiance indispensable au développement du secteur... Un potentiel jackpot en perspective.
François Manens
Giskard se projette en Bureau Veritas de l'IA.
Giskard se projette en Bureau Veritas de l'IA. (Crédits : Reuters)

La fièvre de l'intelligence artificielle générative concentre l'attention sur les créateurs des grands modèles de langage, à l'instar de OpenAI, Anthropic ou encore MistralAI. Mais dans l'ombre de ces nouvelles entreprises stars de l'IA, c'est tout un écosystème qui se structure, au sein duquel la startup française Giskard pourrait jouer un rôle central. Sa mission ? Valider la robustesse, l'efficacité, et la sûreté des intelligences artificielles. Autrement dit, éviter aux entreprises les risques de l'IA, comme les hallucinations ou les biais discriminatoires.

À peine créée pour encadrer les IA traditionnelles, la jeune pousse s'est vue embarquée dans la révolution ChatGPT. Elle a donc rapidement ajouté à son arsenal une plateforme dédiée à la surveillance du comportement des grands modèles de langage -les fameux LLM comme GPT-4 ou Bard- qu'elle déploiera le mois prochain. En parallèle, une formidable opportunité de marché s'ouvre à elle à moyen terme : l'arrivée de l'AI Act, la loi européenne d'encadrement des intelligences artificielles, qui devrait enfin aboutir dans les prochains mois.

« Nous voulons être l'outil de référence des entreprises pour se mettre en règle », ambitionne Alexandre Combessie, cofondateur et CEO de Giskard.

Lire aussiIA générative : les géants de la tech face au verdict du marché

Empêcher les intelligences artificielles de nuire

Bien que très puissants et polyvalents, les LLMs comme GPT-4 peuvent se tromper. Les entreprises l'ont bien pris en compte : dans la majorité des premiers cas d'usages déployés, elles s'assurent que les erreurs n'auront aucune conséquence significative. Mais avant d'utiliser ChatGPT et consorts sur des sujets plus critiques, elles auront besoin d'évaluer précisément les risques.

C'est ici qu'entre Giskard avec ses deux outils : un scan, qui évalue le modèle pour comparer ses performances, et une plateforme de test qui permet de pousser ses limites. L'objectif : choisir le meilleur modèle en termes d'efficacité et de sûreté pour chaque cas de figure. « Notre rôle c'est de protéger à la fois les entreprises et les utilisateurs finaux contre les dérives des IA », résume Alexandre Combessie.

Le nom reflète cette volonté : il n'est non pas un hommage à l'ancien Président de la République, mais une référence au robot R. Giskard Reventlov, un personnage créé par le célèbre auteur de science-fiction Isaac Asimov. Dans Les Robots et l'Empire, Giskard aide un autre androïde à créer une nouvelle loi de la robotique fondamentale : « un robot ne peut ni nuire à l'humanité ni, restant passif, permettre que l'humanité souffre d'un mal ». Le dirigeant de la startup s'amuse du quiproquo : « Nous avons une vocation internationale où cette référence sera comprise. En attendant, notre nom a l'avantage d'être très facilement retenu en France ». La startup se projette à terme comme un incontournable de la certification, une sorte de Bureau Veritas (qui certifie le matériel industriel) des IA.

Des outils transparents, une nécessité

Pour atteindre ces objectifs, Giskard mise sur l'open source. Autrement dit, ses outils accessibles et utilisables gratuitement, et leur code peut être disséqué. Une évidence, pour l'entrepreneur : « Nous œuvrons pour la transparence des algorithmes, il est donc nécessaire que nos outils d'évaluation des modèles soient également transparents, sinon c'est un problème de confiance sans fin ».

Mais la transparence n'est pas le seul atout de l'open source. Comme les outils sont gratuits, des centaines de data scientists utilisent déjà Giskard. Cette communauté relève les défauts des logiciels, suggère de nouvelles fonctionnalités ou plus généralement fait des retours d'expérience. Mieux, de premiers utilisateurs commencent à apporter leurs contributions techniques au projet. Sur GitHub, où l'outil est hébergé, plus de 1.200 personnes ont mis Giskard dans leurs favoris. Cet ancrage communautaire sera à terme un des leviers de réussite de la jeune pousse. Et ce n'est pas un hasard si elle compte parmi ses investisseurs Julien Chaumont, cofondateur et CTO d'Hugging Face, l'entreprise porte-étendard du mouvement de l'open source dans l'IA.

Lire aussiPour détrôner les géants de l'IA, Mistral AI drague le monde de l'open source

Pour générer du chiffre d'affaires, la startup fait payer l'abonnement pour une version « entreprise » de sa plateforme, un modèle économique très répandu chez les éditeurs de logiciels open source. Les clients accèdent alors à une version premium, agrémentée d'une couche visuelle supplémentaire, d'outils de collaboration ou encore de modules d'explication des modèles. Le tout, hébergé et opéré par Giskard. Parmi les premiers clients de cette offre se trouvent le géant de l'assurance Malakoff Humanis et la Banque de France, ce qui positionne déjà la startup comme fournisseur sérieux auprès de deux secteurs très régulés, la santé et la finance.

Un laboratoire dédié aux LLMs en cours de création

La startup compte aujourd'hui une quinzaine d'employés, qu'elle a pu recruter grâce à un tour de table de 1,5 million d'euros fin 2022, mené par le fonds français Elaia Partners. Pour continuer à accélérer, Giskard a décroché une subvention de trois millions d'euros, octroyée en juillet par le fonds d'accélération de la Commission européenne suite à un appel à projet. Avec cette enveloppe, les dirigeants comptent monter dès 2024 un laboratoire de R&D de dix spécialistes, dédié aux LLM.

Et pour cause : la surveillance et le test des grands modèles de langage est le Graal du secteur. Ils atteignent, en effet, des volumes de paramètres inédits, qui brouillent plus que jamais le processus de décision des IA. « Dire que les LLMs ne sont pas vérifiables, car ils sont trop gros devient de moins en moins vrai. Le milieu de la recherche évolue rapidement et de nouvelles méthodes de test émergent. Nous avons la chance que plusieurs laboratoires de pointe en Europe travaillent sur le sujet, même si cela reste une petite communauté », développe Alexandre Combessie. Si Giskard fait partie des pionniers européens de son marché, il devra se confronter à terme à des sociétés américaines, déjà très bien financées. La capacité de la jeune pousse à intégrer la recherche à son produit jouera alors un rôle essentiel dans sa croissance.

François Manens

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 06/10/2023 à 2:33
Signaler
Tout comme cette vieille et célèbre phrase "si vous ne pouvez pas les battre (les Américains), rejoignez-les en tant que joueur à faible valeur ajoutée prêt à ramper sur le sol pour ramasser les bouts de centimes sales qu'ils laissent tomber".

à écrit le 05/10/2023 à 22:12
Signaler
Intéressant, ça semble en effet être un positionnement judicieux.

à écrit le 05/10/2023 à 14:29
Signaler
A un moment donné faudra relire ses fondamentaux de maths, à lieu de faire des classes python! Ces modèles, par nature et par fonctionnement peuvent poser pb, alors je ne vois pas en quoi on peut garantir une certification de quoi que ce soit, sauf...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.