IA : Air Canada passe à la caisse pour réparer l'erreur de son chatbot

S'estimant lésé par la compagnie aérienne à cause de son chatbot qui a inventé une réduction, Jake Moffatt a porté plainte contre Air Canada. Or, bien que celle-ci a justifié que l'outil constituait « une entité légale à part », le tribunal canadien lui a donné tort. Et l'entreprise n'est pas la seule à connaître des déboires provoqués par ce type d'utilisation de l'IA.
Le chatbot d'Air Canada a donné une fausse réduction à un client
Le chatbot d'Air Canada a donné une fausse réduction à un client (Crédits : Todd Korol)

812,02 dollars. C'est la somme qu'Air Canada devra verser pour réparer l'erreur de son chatbot, selon la décision du tribunal civil canadien le 14 février dernier. Tout commence en 2022 quand un certain Jake Moffatt se rend sur le site de la compagnie aérienne pour réserver des billets d'avion afin d'assister à l'enterrement de sa grand-mère.

Il demande conseil au chatbot, qui lui assure que la compagnie offre des réductions en cas de réservation de dernière minute pour cause de deuil. Moffatt réserve alors un billet à 600 dollars, pensant qu'Air Canada lui rembourserait une partie de la somme, tant qu'il en fait la demande dans les 90 jours suivants la réservation, comme le raconte le Washington Post. Sauf que sur cette dernière consigne, le chatbot commet une erreur. Lorsqu'il tente d'obtenir un remboursement, Jake Moffatt apprend que la compagnie accorde uniquement ce type de tarif lorsque cela est demandé avant l'achat du billet.

Pendant trois mois, le client échange par mail avec Air Canada, qui refuse de le rembourser. De quoi le pousser à les poursuivre en justice. De son côté, Air Canada argumente en disant que le chatbot a été mis à jour et que l'erreur n'apparaît plus. Il a depuis été désactivé.

Le chatbot était selon Air Canada « une entité légale » à part

L'histoire peut sembler anecdotique, mais la défense d'Air Canada est intéressante. Devant le tribunal, l'entreprise a estimé que le chatbot était une « entité légale à part », « responsable de ses propres actions ». Par ailleurs, la firme estime que l'information était correctement affichée sur les pages de son site web. La justification n'a toutefois pas convaincu le tribunal, qui estime qu'Air Canada est bien responsable de toutes les informations fournies sur son site web. Pour Christopher Rivers, l'un des membres du tribunal, Mr. Moffatt n'était pas censé savoir « que l'une des sections du site était valable et l'autre non ». Le tribunal a donc tranché que la société devrait verser la différence entre la somme payée par son client et celle indiquée par le chatbot, ainsi que des frais judiciaires.

Lire aussiIntelligence artificielle : l'UE donne son feu vert à l'IA Act

Ce problème pourrait concerner d'autres entreprises puisque les chatbots de service client sont l'une des applications les plus communes des modèles de langage par les entreprises. Or, les chatbots basés sur des larges modèles de langage (LLM) ont tendance à produire ce que l'on appelle une « hallucination ». Ils génèrent du texte de façon probabiliste, et peuvent donc inventer de fausses informations tout en conservant un ton assuré.

Le chatbot de General Motors conseillait une marque concurrente

De quoi produire des situations cocasses. Récemment, un client de DDP, entreprise de livraison filiale de La Poste, s'est amusé à faire raconter au chatbot des injures à l'encontre de l'entreprise. Cette dernière n'a pas eu d'autres choix que de désactiver le chatbot.

De même, quelques mois plus tôt, des journalistes du site Carscoops ont relaté que le chatbot de General Motors n'hésitait pas à conseiller une marque concurrente (Tesla).

Sujets les + lus

|

Sujets les + commentés

Commentaire 1
à écrit le 19/02/2024 à 15:22
Signaler
les gens qui ne comprennent rien a l AI commencent a peine a comprendre ce qu'il se passe en arriere boutique.......on va rire avec la suite

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.