Données personnelles : ChatGPT bloqué provisoirement par les autorités italiennes

Cette décision « avec effet immédiat » aura pour conséquence « la limitation provisoire du traitement des données des utilisateurs italiens vis-à-vis d'OpenAI », créateur de ChatGPT, a indiqué dans un communiqué l'Autorité nationale de protection des données personnelles. OpenAI a désormais vingt jours pour « communiquer les mesures entreprises » pour remédier à cette situation, « sous peine d'une sanction allant jusqu'à 20 millions d'euros ou jusqu'à 4% du chiffre d'affaires mondial annuel ».
ChatGPT a connu quelques déboires ces derniers temps.
ChatGPT a connu quelques déboires ces derniers temps. (Crédits : Reuters)

Les critiques contre ChatGPT auront eu raison du chatbot d'OpenAI, du moins en Italie. Ce logiciel, apparu en novembre, a rapidement été pris d'assaut par des utilisateurs du monde entier, impressionnés par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets, et même à réussir des examens. Il peut également être utilisé pour écrire du code informatique, sans avoir les connaissances techniques.

Une innovation qui n'a pas manqué de susciter des inquiétudes. Les autorités italiennes ont annoncé leur décision de bloquer le robot conversationnel ce vendredi. Cette décision « avec effet immédiat » aura pour conséquence « la limitation provisoire du traitement des données des utilisateurs italiens vis-à-vis d'OpenAI », créateur de ChatGPT, a indiqué dans un communiqué l'Autorité nationale de protection des données personnelles.

Lire aussiDonnées personnelles : quelles leçons retenir des premiers déboires de ChatGPT ?

Perte de données

Dans son communiqué, l'Autorité italienne souligne que ChatGPT « a subi le 20 mars une perte de données (data breach) concernant les conversations des utilisateurs et les informations relatives au payement des abonnés au service payant ». Le logiciel a, en effet, connu quelques déboires récemment. Le sérieux site américain, PCMag, a, en effet, révélé que lorsque certains utilisateurs essayaient de s'abonner à ChatGPT Plus, le service à 20 euros par mois d'OpenAI, la page de paiement préremplissait des adresses email d'autres personnes, vraisemblablement abonnées au service. Un bug qui a, depuis, été corrigé. De plus, lorsque certains utilisateurs se connectaient à leurs comptes, ils voyaient dans leur historique (situé dans une colonne à gauche de l'outil) les titres de conversations qui n'étaient pas les leur, mais celles d'autres utilisateurs.

L'Autorité italienne reproche aussi à ChatGPT « l'absence d'une note d'information aux utilisateurs dont les données sont récoltées par OpenAI, mais surtout l'absence d'une base juridique justifiant le recueil et la conservation en masse des données personnelles, dans le but d'"entraîner" les algorithmes faisant fonctionner la plateforme ».

En outre, alors que le robot est destiné aux personnes de plus de 13 ans, l'Autorité met l'accent sur le fait que l'absence de tout filtre pour vérifier l'âge des utilisateurs expose les mineurs à des réponses absolument non conformes par rapport à leur niveau de développement.

L'Autorité demande à OpenAI de « communiquer d'ici 20 jours les mesures entreprises » pour remédier à cette situation, « sous peine d'une sanction allant jusqu'à 20 millions d'euros ou jusqu'à 4% du chiffre d'affaires mondial annuel ».

« Des risques majeurs pour l'humanité »

Cette annonce intervient alors que l'agence de police européenne Europol a averti lundi que les criminels étaient prêts à tirer parti de l'intelligence artificielle comme le robot conversationnel ChatGPT pour commettre des fraudes et d'autres cybercrimes. Du phishing à la désinformation et aux logiciels malveillants, les capacités en évolution rapide des robots de conversation (chatbots) sont susceptibles d'être rapidement exploitées par des personnes mal intentionnées, a estimé Europol dans un rapport.

Elon Musk et des centaines d'experts mondiaux ont, eux aussi, tiré la sonnette d'alarme et ont signé mercredi un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, en évoquant « des risques majeurs pour l'humanité ».

Dans cette pétition parue sur le site futureoflife.org, ils réclament un moratoire jusqu'à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d'IA, des techniques pour aider à distinguer le réel de l'artificiel et des institutions capables de gérer les « perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA provoquera ».

(Avec AFP)

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 31/03/2023 à 19:00
Signaler
Ben c'est formidable j'aime la CGT qui lutte contre tous les vilains capitalistes qui se goinfrent de dividendes et contre ces incapables du gouvernement qui sont méchants et j'aime bien critiquer et donner mon avis sur tout est n'importe quoi si y a...

à écrit le 31/03/2023 à 17:42
Signaler
La seule notion que le commerce doit être libre et non faussé est très insuffisante, il serait souhaitable de lui rajouter : Sciences sans conscience n'est que... Au boulot les politiques..

à écrit le 31/03/2023 à 17:23
Signaler
Quand une technologie aussi sensible apparaît publiquement, il y a fort à parier sans être complotiste, qu'elle était utilisée depuis quelques années dans le renseignement ou autres ministères "secret défense" , comme les grandes oreilles ou la reche...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.