Intelligence artificielle : OpenAI, l'éditeur de ChatGPT, présente un outil de clonage de la voix

Le leader de l'intelligence artificielle générative a présenté vendredi Voice Engine, un outil de clonage de la voix d'une personne à partir d'un échantillon audio de 15 secondes. Son utilisation sera restreinte pour empêcher les fraudes ou les crimes, mais les manipulations liées à la voix existent déjà et présentent un risque non-négligeable pour les élections à venir de l'année 2024.
Sylvain Rolland
(Crédits : DADO RUVIC)

Toutes les semaines, une entreprise de la tech repousse les limites de l'intelligence artificielle. Vendredi 29 mars, OpenAI, qui est l'une des entreprises les plus en pointe dans le monde et éditeur de ChatGPT, a présenté son dernier joujou, un outil de clonage de voix baptisé Voice Engine. Cette technologie peut reproduire la voix d'une personne à partir d'un échantillon audio de 15 secondes, d'après l'entreprise.

Rassurons-nous : il ne s'agit pas d'un nouvel outil disponible et fonctionnel à grande échelle, mais une preuve de concept des recherches internes d'OpenAI. Les résultats présentés se fondent sur un test de la technologie à petite échelle. De plus, même quand la technologie sera plus mature, son utilisation sera restreinte pour empêcher les fraudes ou les crimes comme l'usurpation d'identité, assure l'entreprise. En Europe, ce type d'outils pourraient d'ailleurs tomber sous le coup de l'IA Act, le nouveau règlement européen sur l'intelligence artificielle, en raison des risques trop élevés d'une utilisation malveillante.

Lire aussiThierry Breton : « L'Europe va devenir le meilleur endroit au monde pour faire de l'intelligence artificielle »

La voie de Joe Biden manipulée

OpenAI reconnaît les risques. « Nous admettons que la capacité de générer des voix ressemblant à celles de personnes comporte de sérieux risques, qui sont particulièrement importants en cette année électorale », a déclaré l'entreprise basée à San Francisco. « Nous travaillons avec des partenaires américains et internationaux issus du gouvernement, des médias, du divertissement, de l'éducation, de la société civile et d'autres secteurs et nous prenons en compte leurs commentaires au fur et à mesure que nous développons l'outil ».

OpenAI assure avoir adopté « une approche prudente et informée » avant une diffusion plus large du nouvel outil « en raison du potentiel d'utilisation abusive des voix synthétiques ».

En cette année électorale cruciale dans le monde, où la moitié des habitants de la planète va changer de dirigeants, les chercheurs en désinformation craignent une utilisation abusive des applications d'IA générative (production automatisée de textes, images, etc), et notamment des outils de clonage de voix, qui sont bon marché, faciles à utiliser et difficiles à retracer. « La désinformation est une pandémie et il faut la combattre en tant que telle », estime l'historien David Colon, interrogé sur le sujet par La Tribune lors de son forum Tech for Future, jeudi 28 mars au Grand Rex.

Cette présentation prudente intervient après un incident politique majeur, quand un consultant travaillant pour la campagne présidentielle d'un rival démocrate de Joe Biden a mis au point un programme automatisé qui usurpait l'identité du président américain, en campagne pour sa réélection. La voix imitant celle de Joe Biden appelait des électeurs pour les inciter à s'abstenir lors de la primaire du New Hampshire.

Les Etats-Unis ont depuis interdit les appels par des voix clonées, générées par de l'IA, afin de lutter contre les arnaques politiques ou commerciales.

Lire aussiUn ingénieur de Microsoft saisit le régulateur : « Copilot n'est pas un modèle d'intelligence artificielle sûr »

Exigence du consentement des personnes dont la voix est clonée

OpenAI a précisé que les partenaires qui testent "Voice Engine" ont accepté des règles exigeant notamment le consentement explicite et informé de toute personne dont la voix est dupliquée et la transparence pour les auditeurs. Ils doivent savoir clairement que les voix qu'ils entendent sont générées par l'IA.

« Nous avons mis en place un ensemble de mesures de sécurité, y compris une marque en filigrane pour pouvoir retracer l'origine de tout son généré par Voice Engine, ainsi qu'un contrôle proactif de son utilisation », a insisté OpenAI.

En octobre dernier, la Maison Blanche avait dévoilé des règles et principes pour encadrer le développement de l'IA, dont celui de la transparence. Joe Biden s'était ému à l'idée que des criminels ne s'en servent pour piéger des personnes en se faisant passer pour des membres de leur famille.

(Avec AFP)

Sylvain Rolland

Sujets les + lus

|

Sujets les + commentés

Commentaires 10
à écrit le 31/03/2024 à 5:45
Signaler
S'il était besoin de prouver la supériorité US en matière d'innovation😂

à écrit le 30/03/2024 à 20:42
Signaler
Quelle sublime " naïveté" des développeurs : ne vous inquiétez pas, les utilisateurs auront un engagement moral pour signaler l'usage de l'A.I. !!! Certes il y aura un filigrane ..... qui ne sera utilisé que trop tard, le mal étant fait.

le 31/03/2024 à 9:05
Signaler
Ils font toutdu développement et de la communication pour ne pas utiliser l'outil ?! Nouveau concept... Moi je pense qu'ils veulent le vendre aux Etats et aux barbouzes en tout genre... Ces outils doivent être interdits de toute urgence

le 31/03/2024 à 20:19
Signaler
Filigrane dans le fichier numérique (comme certaines photocopieuses 'parfaites' qui laissent de micro-taches fluorescentes pour donner le numéro de série de l'appareil en cas de contrefaçons de billets par ex) mais inaudible sur le haut-parleur. A qu...

à écrit le 30/03/2024 à 18:58
Signaler
"Cette technologie peut reproduire la voix d'une personne à partir d'un échantillon audio de 15 secondes, d'après l'entreprise." OpenAI réinvente le piratage musical initié par le mouvement rap prétendant qu'une contrefaçon de 30 secondes répété...

à écrit le 30/03/2024 à 18:44
Signaler
15 sec pour reconnaitre, ok, 15 secondes d'apprentissages pour cloner une voix, ca ne colle pas, ou alors avec plein d'erreurs.....concernant les mass manipulations, ca existe depuis toujours, on sait comment et pourquoi ca marche ( ou pas), l'AI n'a...

à écrit le 30/03/2024 à 17:07
Signaler
Bonjour, ici Yves Le Drian! je suis inquiet, très inquiet !

à écrit le 30/03/2024 à 10:47
Signaler
Tous les AI sone des outils d'éspionage.

à écrit le 30/03/2024 à 10:19
Signaler
Cloner la voix c'est élever le mensonge à son plus haut niveau.C'est la possibilité de réveiller les morts et ils ne vont pas aimer.

à écrit le 30/03/2024 à 10:02
Signaler
Pas sûr justement, l'image nous manipule bien plus facielemnt que le son, parce que 50ù de notre cerveau est consacré aux apparences même si elles osnt particulièrement immondes ces apparences à la télévision, elles influencent directement notre cerv...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.