Air Canada va indemniser son client Jake Moffatt, induit en erreur par leur chatbot
Un chatbot qui raconte des choses fausses engage une société, si grande fût-elle. Air Canada vient de l'apprendre, à ses dépens. Le billet de Jake Moffatt, surfacturé, doit lui être remboursé. Mais il a fallu un jugement pour que la plus grande compagnie aérienne du Canada se rende compte de ses errements. Elle a été condamnée à verser des indemnités après que son chatbot a donné à un client des informations inexactes, l'incitant à acheter un billet à plein tarif.
Dans un contexte où les entreprises cherchent à automatiser leurs services, cette affaire - la première du genre au Canada - soulève des questions sur le niveau de contrôle des entreprises sur les outils de dialogue en ligne.
En 2022, Jake Moffatt a contacté Air Canada pour savoir quels documents étaient nécessaires pour bénéficier d'un tarif de deuil et si les remboursements pouvaient être accordés rétroactivement.
Selon la capture d'écran de la conversation de Moffat avec le chatbot, le résident de la Colombie-Britannique a été informé qu'il pouvait demander le remboursement "dans les 90 jours suivant la date d'émission de votre billet" en remplissant un formulaire en ligne.
M. Moffatt a ensuite réservé des billets à destination et en provenance de Toronto pour assister aux funérailles d'un membre de sa famille. Mais, lorsqu'il a demandé un remboursement, Air Canada lui a répondu que les tarifs pour les voyages en cas de deuil ne s'appliquaient pas aux voyages effectués et lui a indiqué la section du site web de la compagnie consacrée aux voyages en cas de deuil.
Air Canada a ensuite admis, lorsqu'elle a été confrontée à une capture d'écran des conseils du chatbot des mois plus tard, que le chatbot avait utilisé des "mots trompeurs" dans ses conseils. La compagnie aérienne a indiqué à M. Moffatt qu'elle mettrait à jour le chatbot.
M. Moffatt a alors intenté une action en justice pour obtenir une somme correspondant à la différence de tarif, ce qui a incité Air Canada à adopter une défense que Christopher Rivers, membre du tribunal, a qualifiée de "présentation remarquable" pour sa défense.
Air Canada a fait en effet valoir qu'en dépit de l'erreur, le chatbot était une "entité juridique distincte" et qu'il était donc responsable de ses actes.
"Bien qu'un chatbot ait une composante interactive, il n'est qu'une partie du site web d'Air Canada. Il devrait être évident pour Air Canada qu'elle est responsable de toutes les informations figurant sur son site web", a écrit M. Rivers. "Cela ne fait aucune différence que les informations proviennent d'une page statique ou d'un chatbot.
Bien qu'Air Canada ait soutenu que des informations correctes étaient disponibles sur son site web, Mr Rivers a déclaré que la société n'avait "pas expliqué pourquoi la page web intitulée "Voyage de deuil" était intrinsèquement plus digne de confiance" que son chatbot.
"Il n'y a aucune raison pour que M. Moffatt sache qu'une section de la page web d'Air Canada est exacte et qu'une autre ne l'est pas", a-t-il écrit.
Air Canada doit verser à M. Moffatt 650,88 dollars canadiens, soit l'équivalent de la différence entre le prix payé par M. Moffatt pour son vol et le tarif réduit pour le voyage de deuil, ainsi que 36,14 dollars canadiens d'intérêts avant jugement et 125 dollars canadiens de frais. La rubrique Voyage en cas de deuil va être actualisée, pour sûr du côté de la compagnie canadienne.
Pour aller plus loin, on lira avec intérêt nos tests des chatbots de Carrefour, de Best Western, pas trop fonctionnels ou aidants. Mais qui ne racontent pas de sornettes.
On s'intéressera aussi à des callbots fonctionnels tel celui de Butagaz, qui fait le job ! Développé par Zaion. On peut lui demander de remplir sa chaudière, une opération pourtant complexe !