Prestations

Conception de site web, optimisation du référencement, stratégie websociale… Quelle que soit votre problématique digitale, nous avons les experts et les garanties qu’il vous faut ! Nous consultants vous accompagnent avant, pendant et après la mise en place de votre projet pour un résultat à la hauteur de vos ambitions.

Formations

Organisme reconnu et certifié, Tous les Jeudis met en place des formations personnalisées en fonction de vos attentes. N’hésitez plus à faire appel à nos formateurs pour faire monter en compétence vos équipes sur des thématiques digitales variées.

Tous Les Jeudis

Jurisprudence : Quand l’IA se trompe, l’entreprise est responsable !

Écouter une version audio de cet article

C’est une affaire qui fera sans doute jurisprudence dans le monde des IA génératives… Air Canada a été condamné il y a quelques jours à indemniser un client suite à des informations erronées fournies par son chatbot. Ce cas met en lumière les défis et les responsabilités auxquels sont confrontées les entreprises dans l’ère de l’IA, soulignant la nécessité d’une régulation et d’un contrôle accru de ces technologies émergentes.

Le litige a pris naissance en novembre 2022, lorsque Jake Moffatt, résident de la Colombie-Britannique, s’est vu proposer par l’IA générative d’Air Canada une réduction sur un tarif de deuil, information qui s’est avérée être incorrecte selon les politiques de l’entreprise explicitement décrites sur son site web. En se basant sur cette promesse, Moffatt a procédé à l’achat de billets, pour découvrir par la suite que la réduction ne serait pas honorée. Suite au refus d’Air Canada d’appliquer la réduction, Moffatt a saisi le tribunal civil canadien qui, dans un jugement du 14 février 2024, a tranché en sa faveur, ordonnant à Air Canada de payer environ 600 $ en remboursement des frais de deuil et des frais de justice.

Ce cas n’est pas isolé dans l’univers des interactions entre les entreprises et les consommateurs, mais il constitue un précédent notable quant à la responsabilité des entreprises pour les actions de leurs outils d’IA. Le tribunal a rejeté l’argument d’Air Canada selon lequel le chatbot devrait être considéré comme une entité juridique distincte, soulignant plutôt que l’entreprise avait un devoir de diligence envers ses clients, y compris dans les informations fournies par ses agents d’IA.

L’affaire a suscité un vif débat parmi les analystes et les experts en technologie sur l’importance de la surveillance et du contrôle des outils d’IA dans le service client. Avivah Litan, analyste chez Gartner, a notamment souligné que près de 30% des réponses générées par les IA peuvent être classées comme des « hallucinations », ou des informations fictives, mettant en exergue la nécessité pour les entreprises d’investir dans des mécanismes de vérification et de correction.

La décision du tribunal canadien réaffirme la notion que, malgré l’autonomie apparente des technologies d’IA, les entreprises restent ultimement responsables des informations qu’elles diffusent, que ce soit via un site web, un employé ou un chatbot. Ce jugement met également en évidence la tension entre l’innovation technologique et les cadres juridiques existants, invitant à une réflexion plus approfondie sur les meilleures pratiques à adopter pour l’intégration de l’IA dans les interactions avec la clientèle. Et cela est d’autant plus vrai à l’heure ou l’IA peut perdre les pédales…

L’incident d’Air Canada sert de rappel aux entreprises sur l’importance de la prudence et de l’investissement dans la sécurité et la fiabilité de leurs outils d’IA. Alors que ces technologies continuent d’évoluer et de se répandre dans tous les aspects du service client, la nécessité d’un cadre réglementaire clair et d’une responsabilisation des entreprises devient de plus en plus évidente, pour garantir une utilisation éthique et légale de l’IA au bénéfice de tous les acteurs impliqués.

Partager cet article

Actualités

[Étude] L’IA fait gagner 1 jour par semaine aux chefs de projet. Vraiment ?

Derrière ce titre racoleur, une réalité : les salariés formés à l’IA générative gagnent en moyenne 7,5 heures de travail par semaine.

Vers une IA responsable et mesurable avec EcoLogits Calculator ?

Quel est le coût écologique de l'IA générative et comment intégrer cette réflexion dans une démarche d'IA responsable et éthique ?

Leadership augmenté : managers et RH à l’ère de l’IA

L’intelligence artificielle bouscule les repères du management et des RH mais une même question demeure : comment garder l’humain au centre ?

50% des contenus web sont générés par l’IA : comment continuer à exister ?

La moitié du web est écrite par l’IA. Découvrez comment rester visible et créer des contenus qui comptent, pas juste du volume.

IA générative : comment l’utiliser sans perdre de vue l’éthique, l’écologie et la sécurité ?

Apprenez à utiliser l’IA générative de façon éthique et durable : RGPD, sécurité des données, écologie, biais et droits d’auteur.

NotebookLM : Google muscle son assistant IA avec vidéos, audio et français natif

NotebookLM s’impose en France avec ses nouvelles fonctions : résumés audio et vidéo multilingues, interface Studio repensée et app mobile. Un outil IA ancré aux sources, utile mais encore perfectible.

NEWSLETTER

Inscrivez-vous et recevez tous les jeudis, la newsletter de Tous Les Jeudis !