Jurisprudence : Quand l’IA se trompe, l’entreprise est responsable !
Publié le 23 février 2024
Écouter une version audio de cet article
C’est une affaire qui fera sans doute jurisprudence dans le monde des IA génératives… Air Canada a été condamné il y a quelques jours à indemniser un client suite à des informations erronées fournies par son chatbot. Ce cas met en lumière les défis et les responsabilités auxquels sont confrontées les entreprises dans l’ère de l’IA, soulignant la nécessité d’une régulation et d’un contrôle accru de ces technologies émergentes.
Le litige a pris naissance en novembre 2022, lorsque Jake Moffatt, résident de la Colombie-Britannique, s’est vu proposer par l’IA générative d’Air Canada une réduction sur un tarif de deuil, information qui s’est avérée être incorrecte selon les politiques de l’entreprise explicitement décrites sur son site web. En se basant sur cette promesse, Moffatt a procédé à l’achat de billets, pour découvrir par la suite que la réduction ne serait pas honorée. Suite au refus d’Air Canada d’appliquer la réduction, Moffatt a saisi le tribunal civil canadien qui, dans un jugement du 14 février 2024, a tranché en sa faveur, ordonnant à Air Canada de payer environ 600 $ en remboursement des frais de deuil et des frais de justice.
Ce cas n’est pas isolé dans l’univers des interactions entre les entreprises et les consommateurs, mais il constitue un précédent notable quant à la responsabilité des entreprises pour les actions de leurs outils d’IA. Le tribunal a rejeté l’argument d’Air Canada selon lequel le chatbot devrait être considéré comme une entité juridique distincte, soulignant plutôt que l’entreprise avait un devoir de diligence envers ses clients, y compris dans les informations fournies par ses agents d’IA.
L’affaire a suscité un vif débat parmi les analystes et les experts en technologie sur l’importance de la surveillance et du contrôle des outils d’IA dans le service client. Avivah Litan, analyste chez Gartner, a notamment souligné que près de 30% des réponses générées par les IA peuvent être classées comme des « hallucinations », ou des informations fictives, mettant en exergue la nécessité pour les entreprises d’investir dans des mécanismes de vérification et de correction.
La décision du tribunal canadien réaffirme la notion que, malgré l’autonomie apparente des technologies d’IA, les entreprises restent ultimement responsables des informations qu’elles diffusent, que ce soit via un site web, un employé ou un chatbot. Ce jugement met également en évidence la tension entre l’innovation technologique et les cadres juridiques existants, invitant à une réflexion plus approfondie sur les meilleures pratiques à adopter pour l’intégration de l’IA dans les interactions avec la clientèle. Et cela est d’autant plus vrai à l’heure ou l’IA peut perdre les pédales…
L’incident d’Air Canada sert de rappel aux entreprises sur l’importance de la prudence et de l’investissement dans la sécurité et la fiabilité de leurs outils d’IA. Alors que ces technologies continuent d’évoluer et de se répandre dans tous les aspects du service client, la nécessité d’un cadre réglementaire clair et d’une responsabilisation des entreprises devient de plus en plus évidente, pour garantir une utilisation éthique et légale de l’IA au bénéfice de tous les acteurs impliqués.
Envie d’en savoir plus ou d’être accompagné sur ce type de problématiques digitales, n’hésitez pas à nous contacter !