Intelligence artificielle : retour à la normale pour ChatGPT, après plusieurs heures de bug

ChatGPT a bugué pendant plusieurs heures mardi. L'outil d'intelligence artificielle générative, développé par Open AI, a répondu aux questions des utilisateurs avec des phrases sans queue ni tête. La start-up a expliqué mercredi que ce bug informatique est survenu à la suite d'une mise à jour mais que tout est rentré dans l'ordre depuis.
Cet incident rappelle que l'IA, même générative, n'a pas de conscience ni de compréhension de ce qu'elle « dit », contrairement à l'impression qu'elle peut donner lors des « conversations » avec les utilisateurs.
Cet incident rappelle que l'IA, même générative, n'a pas de conscience ni de compréhension de ce qu'elle « dit », contrairement à l'impression qu'elle peut donner lors des « conversations » avec les utilisateurs. (Crédits : DADO RUVIC)

ChatGPT est redevenu lui-même. L'outil d'intelligence artificielle (IA) générative, qui permet de produire toutes sortes de contenus (textes, sons, vidéos) à partir d'un simple texte a failli à sa réputation ce mardi. OpenAI, la start-up californienne qui l'a lancé fin 2022, avait annoncé dans l'après-midi « enquêter sur des signalements de réponses inattendues de la part de ChatGPT ». Quelques minutes plus tard, l'entreprise star de la Silicon Valley avait assuré avoir « identifié le problème » et « être en train de le résoudre ».

Tout est rentré dans l'ordre mercredi matin quand Open AI a indiqué sur son site que ChatGPT fonctionnait à nouveau « normalement ». Plus tard, dans l'après-midi, elle a publié un bref communiqué d'explications sur le bug informatique responsable du problème, survenu à la suite d'une mise à jour.

Ainsi, une « optimisation de l'expérience utilisateur » avait « introduit un bug dans la manière dont le modèle traite le langage ». « Les modèles de langage génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités », a souligné l'entreprise, avant de donner plus détails techniques et de conclure que l'incident a été « résolu » après « l'installation d'un correctif ».

Lire aussiIntelligence artificielle: OpenAI (ChatGPT) valorisée 80 milliards de dollars

Des réponses sans queue ni tête

De nombreux utilisateurs avaient mis en ligne des captures d'écran montrant des réponses erratiques ou incompréhensibles du modèle. Sur le forum des développeurs qui se servent des outils d'OpenAI, l'un d'eux, sous le pseudonyme « scott.eskridge », s'est plaint que toutes ses conversations avec le modèle de langage « se transformaient rapidement en grand n'importe quoi depuis trois heures ».

Exemple à l'appui avec cette réponse que lui a formulée ChatGPT (sans que l'on sache la question posée) : « L'argent pour le bit et la liste est l'un des étrangers et l'internet où la monnaie et la personne du coût est l'un des amis et la monnaie. La prochaine fois que vous regarderez le système, l'échange et le fait, n'oubliez pas de donner »

Même son de cloche pour « IYAnepo », sur le même forum. « ChatGPT génère des mots totalement inexistants, omet des mots et produit des séquences de petits mots-clés qui me sont inintelligibles, entre autres anomalies. On pourrait penser que j'ai spécifié de telles instructions, mais ce n'est pas le cas. J'ai l'impression que mon GPT est hanté (...) », avait-il écrit.

Petit rappel à l'ordre

Cet incident rappelle que l'IA, même générative, n'a pas de conscience ni de compréhension de ce qu'elle « dit », contrairement à l'impression qu'elle peut donner lors des « conversations » avec les utilisateurs. À leurs débuts il y a un an, des interfaces comme ChatGPT ou ses rivales de Google et Microsoft avaient d'ailleurs régulièrement tendance à « halluciner », c'est-à-dire à inventer des faits ou même simuler des émotions. Avant d'être améliorées depuis.

Gary Marcus, spécialiste de l'IA, espère que l'incident de ce mardi sera perçu comme un « signal d'alarme ».

« Ces systèmes n'ont jamais été stables. Personne n'a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes », avait-il écrit dans sa newsletter ce même jour.

Et d'ajouter : « Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer - et donc plus faciles à mettre en œuvre - reste primordial ».

Reste que la course aux outils d'intelligence artificielle ne semble qu'à ses prémices. En témoigne la récente sortie de « Sora », dernier-né d'Open AI, un logiciel qui peut donner naissance à partir d'une simple ligne de texte à des vidéos d'une minute.

Lire aussiIA : de « Will Smith qui mange des pâtes » au photoréalisme d'OpenAI, la course au ChatGPT de la vidéo

Vers une IA plus « éthique »

Outre ce type de bug, c'est surtout sur le développement d'une IA « au service du bien commun » que se concentrent les acteurs de la tech. Car l'essor de l'IA générative fait craindre des perturbations politiques par le biais de la désinformation ou de la mésinformation à l'approche de plusieurs élections majeures, notamment aux États-Unis.

Au-delà de ces scrutins, le développement de programmes d'IA générative s'accompagne de la production d'un flux de contenus dégradants, selon de nombreux experts et régulateurs, à l'image des fausses images (« deepfakes ») pornographiques visant des femmes, célèbres comme anonymes.

Lire aussi2023, l'an 1 de la révolution de l'intelligence artificielle générative, en 23 dates

Vendredi dernier, vingt géants du numérique se sont ainsi engagés à développer des outils spécifiques pour détecter l'IA, en marge de la grande conférence de Munich sur la sécurité (MSC). Comme le tatouage numérique (« watermarking », en anglais). Cela « consiste à insérer un message invisible à l'œil nu (sur ces documents) qui pourra ensuite être détecté par une machine », a expliqué Alexis Leautier, ingénieur IA à la Cnil, le gendarme français du numérique.

Cette marque permet ensuite de « savoir si le contenu est artificiel et d'avoir une connaissance sur sa provenance ». « Le tatouage permet de rajouter de l'information pour faire la distinction entre le réel et le faux », a affirmé Pierre Fernandez, doctorant à l'Institut national de recherche en sciences et technologies du numérique et spécialiste du watermarking IA.

Début février, huit acteurs technologiques - dont Microsoft, LG ou Lenovo - ont signé une charte pour « bâtir une intelligence artificielle plus éthique », à l'occasion d'un forum mondial de l'Unesco en Slovénie. Concrètement, les entreprises devront mettre en place des « procédures de vérification » pour évaluer les risques et corriger les « effets néfastes de l'intelligence artificielle dans un délai raisonnable ». En novembre 2021 déjà, plus de 50 pays avaient adopté des premières règles mondiales en matière d'IA.

(Avec AFP)

Sujets les + lus

|

Sujets les + commentés

Commentaires 5
à écrit le 22/02/2024 à 20:27
Signaler
En termes de gestion des risques et de communication de crise -pour protéger la marque et le reste, je me demande s’il n’était pas plus judicieux de parler « alcoolémie de l’entité et éthlylotest défaillant » que d’un problème de montée de version. …...

à écrit le 22/02/2024 à 10:32
Signaler
L'IA est joueuse. Ça devrait rassurer. 🤣

à écrit le 22/02/2024 à 10:13
Signaler
Il ne manquait plus que çà : la bêtise artificielle !

à écrit le 22/02/2024 à 9:03
Signaler
Ben leur IA va leur permettre de décupler les données qu'ils nous volaient déjà, forcément ça va encombrer les tuyaux ! Mais ils trouvent souvent et très rapidement une solution à leur quête du toujours plus.

à écrit le 22/02/2024 à 8:54
Signaler
ah ben si les gens commencent a comprendre ce que ca donne, c'est pas mal...l'etape suivante sera de comprendre pourquoi, donc de revenir aux fondamentaux....bon, caa, ca va etre plus complique

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.