Entreprises, pourquoi vous devriez encadrer l'utilisation de ChatGPT par vos employés

OPINION. Grande est la tentation d'utiliser ChatGPT pour faciliter nos tâches quotidiennes au travail : que ce soit pour préparer une intervention ou une présentation, rédiger un article ou un rapport, ou simplement pour répondre à une question complexe. Quels sont les risques de ChatGPT pour votre entreprise ? Quelles solutions mettre en place ? Par Camille Truchot et Charlotte Véron, avocates chez Gide.
(Crédits : DADO RUVIC)

ChatGPT est un outil d'intelligence artificielle générative, qui produit des contenus nouveaux sur la base de contenus existants lui ayant été transmis comme données d'apprentissage. Il suffit d'entrer ses questions pour que l'IA lui réponde sur la base de ces données. Toutefois, certaines entreprises comme Samsung ont déjà fait les frais de l'utilisation de ChatGPT par leurs employés, en voyant certaines données confidentielles de l'entreprise révélées par l'outil à des tiers.

Alors que l'autorité italienne de protection des données personnelles a temporairement interdit ChatGPT en Italie et que les plaintes se multiplient en France auprès de la CNIL, de plus en plus d'entreprises en France et à l'étranger se questionnent - à juste titre - sur l'utilisation de cette solution par leurs employés.

Quels sont les risques de ChatGPT pour votre entreprise ?

Si vous ne l'avez pas encore fait dans votre entreprise, il est certainement temps de réfléchir aux risques que peut comporter l'IA pour votre activité, de communiquer en interne pour informer vos employés de ces risques, et éventuellement de mettre en place des mesures pour encadrer l'utilisation de ces outils au sein de votre entreprise.

Des résultats pas toujours fiables. Les outils d'IA générative se basant sur des données existantes pour apprendre puis pour générer de nouveaux contenus, ceux-ci seront nécessairement lacunaires et/ou biaisés si leurs sources le sont. OpenAI le précise d'ailleurs dans sa FAQ : l'outil a "une connaissance limitée du monde et des événements postérieurs à 2021 et peut également produire occasionnellement des instructions nuisibles ou un contenu partial". Il en résulte que les résultats générés par ChatGPT doivent être vérifiés et analysés par un être humain.

Des résultats potentiellement contrefaisants. Si ChatGPT s'est fondé sur des contenus protégés par des droits de propriété intellectuelle (et notamment par le droit d'auteur) sans autorisation des titulaires de droits, les résultats peuvent violer les droits de propriété intellectuelle de ces personnes. Toutefois, il est très difficile d'identifier les contenus existants qui ont été utilisés pour produire le résultat.

Le risque de réutilisation des données de l'entreprise. Les informations fournies par les utilisateurs dans le cadre de leurs interactions avec ChatGPT ne sont pas confidentielles et peuvent être réutilisées comme données d'apprentissage par l'outil. Cette réutilisation peut donc intégrer (i) des données sensibles ou confidentielles de l'entreprise, et (ii) des données personnelles qui auraient été intégrées dans les requêtes. A ce titre, la réutilisation par l'outil d'informations sur une invention de l'entreprise pourrait remettre en cause le caractère de nouveauté nécessaire à l'obtention d'un brevet. Depuis le 1er mars 2023, OpenAI propose de remplir un formulaire pour refuser la ré-utilisation des données à des fins d'apprentissage. En revanche, les informations saisies pourront toujours être visualisées par OpenAI afin de contrôler les réponses apportées par l'outil.

Quelles solutions mettre en place ?

Il est essentiel d'informer vos employés des risques générés par les outils d'intelligence artificielle. Les recommandations principales seraient les suivantes :

  • Vérifier l'exactitude des résultats générés par l'outil ;
  • Ne pas les intégrer dans des utilisations externes à l'entreprise ou commerciales ;
  • Ne pas saisir d'informations sensibles ou confidentielles ou de données personnelles dans les requêtes ;
  • Remplir le formulaire d'OpenAI pour refuser la réutilisation des données intégrées aux requêtes.

Au-delà de l'information sur les risques, l'usage de ces outils dans le cadre professionnel peut être encadré en intégrant ces recommandations dans une charte, telle que la charte informatique de l'entreprise, dont le non-respect pourrait être susceptible de sanctions disciplinaires.

Quelques entreprises et administrations ont été jusqu'à interdire purement et simplement à leurs employés le recours à ces outils dans le cadre de leurs fonctions. Cette solution drastique reste toutefois marginale car il serait dommage de se priver d'un outil si innovant. La plupart des entreprises qui ont adopté des mesures contre ChatGPT comme Samsung, JP Morgan ou encore Amazon ont donc préféré encadrer son utilisation plutôt que de l'interdire.

Sujets les + lus

|

Sujets les + commentés

Commentaire 0

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

Il n'y a actuellement aucun commentaire concernant cet article.
Soyez le premier à donner votre avis !

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.