L’utilisation de l’intelligence artificielle (IA) continue de se développer rapidement dans de nombreuses sphères de la vie quotidienne. Que ce soit à des fins logistiques, pour le service à la clientèle ou pour la conception et la construction d’un projet complexe, l’utilisation de l’IA se développe à un rythme incroyable. Ce domaine en pleine évolution présente des défis juridiques uniques, notamment en matière de responsabilité.
Malgré l’application croissante de l’IA, il existe au Canada peu de jurisprudence traitant de l’utilisation de l’IA et des responsabilités qui en découlent. Dans une décision récente, publiée le 14 février 2024, le British Columbia Civil Resolution Tribunal (Small Claims), soit le tribunal de résolution des litiges civils (petites créances) de la Colombie-Britannique (le tribunal), s’est prononcé sur la responsabilité d’une entreprise à l’égard d’un dialogueur (chatbot) présent sur son site Web.
Dans l’affaire Moffatt v. Air Canada[1], un passager et Air Canada se disputaient au sujet d’un remboursement concernant un tarif pour deuil. À la suite du décès de sa grand-mère, M. Moffatt avait réservé des vols auprès d’Air Canada sur la base des renseignements qu’un dialogueur présent sur le site Web de la compagnie aérienne lui avait fournis et qui indiquaient qu’il pouvait demander rétroactivement une réduction de tarif pour cause de deuil. Après avoir acheté les billets, M. Moffatt a présenté une demande rétroactive de réduction de tarif. Air Canada a refusé sa demande, au motif que le dialogueur s’était trompé en l’informant que la politique relative aux voyages pour deuil autorisait les demandes rétroactives. M. Moffatt a déposé une réclamation auprès du tribunal afin d’obtenir un remboursement partiel basé sur la différence de prix entre le tarif normal et le tarif pour deuil allégué[2].
En l’espèce, le tribunal devait déterminer si Air Canada avait communiqué de manière négligente et inexacte la procédure à suivre pour demander la réduction de tarif pour deuil[3].
Air Canada a fait valoir qu’elle ne pouvait être tenue responsable des renseignements fournis par l’un de ses agents, préposés ou représentants, y compris un dialogueur. Air Canada a également fait valoir que le dialogueur était une entité juridique distincte qui était responsable de ses propres actions[4]. Rejetant expressément ces arguments, le tribunal a déclaré que [traduction libre] « [m]ême s’il a une composante interactive, le dialogueur fait toujours partie du site Web d’Air Canada. Il devrait être évident pour Air Canada qu’elle est responsable de tous les renseignements figurant sur son site Web. Que ces renseignements proviennent d’une page statique ou d’un dialogueur ne fait aucune différence » [5].
Le tribunal a conclu que, compte tenu de leur relation commerciale en tant que fournisseur de services et consommateur, Air Canada avait un devoir de diligence envers le passager, M. Moffatt. Le tribunal a noté que la norme de diligence applicable exige qu’une entreprise prenne des précautions raisonnables pour s’assurer que ses déclarations sont exactes et non trompeuses[6]. Le tribunal a conclu qu’Air Canada avait manqué à son devoir de diligence envers M. Moffatt, car elle n’avait pas fait preuve d’une diligence raisonnable pour s’assurer que son dialogueur était exact[7].
Le tribunal a également rejeté les arguments d’Air Canada selon lesquels les renseignements exacts se trouvaient ailleurs sur son site Web. Il a estimé que les clients ne devraient pas avoir à revérifier les renseignements trouvés à un endroit du site Web par rapport à ceux qui se trouvent à un autre endroit du site Web[8]. En fin de compte, il a conclu que la compagnie était responsable pour avoir fait par négligence des déclarations inexactes dans ces circonstances[9].
Bien qu’il s’agisse d’une décision d’un tribunal des petites créances de la Colombie-Britannique, l’affaire soulève des questions intéressantes concernant l’utilisation de l’IA. À mesure que les acteurs du secteur de la conception et de la construction étendent leur utilisation de l’IA, les tribunaux de tout le pays seront de plus en plus amenés à se prononcer sur la myriade de questions que soulève son utilisation.
[1] Moffatt v. Air Canada, 2024 BCCRT 149 [affaire Moffatt].