Pour éviter des fuites de données, Samsung interdit à ses employer d'utiliser ChatGPT

Samsung Electronics interdit à une partie de ses employés d'utiliser les outils d'intelligence artificielle générative tels que ChatGPT, après avoir noté dans un document interne des « cas d'utilisation abusive » de cette technologie.
Samsung recommande aux employés de ne pas télécharger des informations liées à leur travail sur les plateformes d'IA lorsqu'ils se connectent en dehors des locaux de l'entreprise.
Samsung recommande aux employés de ne pas télécharger des informations liées à leur travail sur les plateformes d'IA lorsqu'ils se connectent en dehors des locaux de l'entreprise. (Crédits : DADO RUVIC)

Samsung qui, comme Goldman Sachs, Amazon ou JP Morgan, a restreint l'utilisation des plateformes d'intelligence artificielle (IA) générative, indique dans une note interne, consultée par l'AFP, s'efforcer de trouver des moyens d'utiliser les services d'IA générative dans un « environnement sûr pour les employés afin que l'efficacité et la commodité du travail puissent être améliorées ». En attendant, l'entreprise interdit « temporairement l'utilisation des services d'IA générative pour les ordinateurs appartenant à l'entreprise ».

Lire aussiChatGPT, une aubaine pour les cybercriminels et un risque conséquent pour les entreprises

Une note interne que l'AFP a pu consulter indique que Samsung s'efforce de trouver des moyens d'utiliser les services d'IA générative dans un « environnement sûr pour les employés afin que l'efficacité et la commodité du travail puissent être améliorées ». La note interne indique avoir eu connaissance de « cas d'utilisation abusive » de ce type d'outils par des employés de Samsung, sans donner de détails. Le document recommande en outre aux employés de ne pas télécharger des informations liées à leur travail sur ces plateformes lorsqu'ils se connectent en dehors des locaux de l'entreprise. Trois salariés auraient fourni des informations sensibles qui ont été captées par ChatGPT pour enrichir sa base de données.

Face à cette nouvelle donne, les entreprises doivent adapter d'urgence leur politique en matière de cybersécurité, a déjà pu souligner Karen Renaud, informaticienne à l'université de Strathclyde, spécialisée sur les questions de sécurité et de vie privée. « Les entreprises doivent mettre l'accent sur la formation de leurs équipes, qui doivent plus que jamais être entraînées à exercer leur esprit critique et à faire preuve de suspicion en permanence. Avec ChatGPT et les deepfakes, les conseils du style « assurez-vous de bien connaître la personne qui vous parle avant de faire ce qu'elle veut » sont totalement obsolètes. En outre, les entreprises doivent se montrer plus souples dans l'évolution de leur politique de sécurité : à l'ère où la nature des menaces change tous les jours, les mises à jour dans la politique de cybersécurité  ne peuvent plus mettre des mois à passer tous les échelons hiérarchiques. »

ChatGPT de nouveau autorisé en Italie

En revanche ChatGPT, bloqué il y a un mois en Italie pour atteinte à la législation sur les données personnelles, est de nouveau autorisé dans la péninsule depuis le week-end dernier. L'Autorité italienne de protection des données personnelles avait bloqué fin mars ChatGPT, qu'elle accusait de ne pas respecter la réglementation européenne et de ne pas avoir de système pour vérifier l'âge des usagers mineurs. OpenAI publie désormais sur son site des informations sur la façon dont il « collecte » et « utilise les données liées à l'entraînement » et offre une « plus grande visibilité » sur la page d'accueil de ChatGPT et OpenAI de la politique concernant les données personnelles. La compagnie assure aussi avoir mis en place un outil « permettant de vérifier en Italie l'âge des utilisateurs » une fois qu'ils se branchent. Le 13 avril, l'Espagne a annoncé l'ouverture d'une enquête sur ChatGPT, le jour où l'Union européenne a lancé un groupe de travail pour favoriser la coopération européenne sur le sujet.

L'un des pères fondateurs de l'IA met en garde contre ses dangers

Geoffrey Hinton, considéré comme l'un des pères fondateurs de l'intelligence artificielle (IA) a mis en garde contre ses dangers en quittant son poste au sein de Google. Les avancées dans ce secteur induisent « de profonds risques pour la société et l'humanité », estime le scientifique dans le New York Times. « Regardez où nous en étions il y a cinq ans et la situation actuelle », poursuit-il en jugeant « effrayant » les perspectives d'avenir en faisant des projections sur les bases des progrès des dernières années.  Selon lui, « il est difficile de voir comment éviter que les mauvais acteurs l'utilisent pour de mauvaises choses ».

L'expert a informé Google de sa démission le mois dernier, selon le journal.  Dans un tweet confirmant son départ, il réfute toute volonté de critiquer le géant de la tech par cette décision. « Google s'est comporté de façon très responsable », a-t-il écrit.  En 2019, Geoffrey Hinton avait reçu, avec deux autres spécialistes de l'intelligence artificielle, le prix Turing, l'équivalent du Nobel pour les informaticiens.

(Avec AFP)

Commentaires 4
à écrit le 03/05/2023 à 10:47
Signaler
Ses "Employer" ??

à écrit le 03/05/2023 à 2:47
Signaler
A ses employes. C'est mieux.

à écrit le 03/05/2023 à 0:45
Signaler
"Samsung interdit à ses employer d'utiliser ChatGPT" : il y a un je ne sais quoi qui me chagrine dans le titre...

à écrit le 02/05/2023 à 22:25
Signaler
C'est là que l'on comprend l'instabilité permanente du virtuel qui vampirise le réel ! ;-)

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.