La responsabilité du fait des produits au Québec et l’intelligence artificielle : un nouveau monde?

A+ A- A
La responsabilité du fait des produits au Québec et l’intelligence artificielle : un nouveau monde?

Les garanties légales de qualité

En vertu du Code civil du Québec (C.c.Q.)[1], le vendeur d’un bien est tenu de garantir à l’acheteur contre les vices cachés qui rendraient le bien impropre à l’usage auquel on le destine ou qui diminuent tellement son utilité que l’acheteur ne l’aurait pas acheté, ou n’aurait pas donné si haut prix, s’il les avait connus. En cas de vente par un vendeur professionnel, l’existence d’un vice au moment de la vente est présumée, lorsque le mauvais fonctionnement du bien ou sa détérioration survient prématurément par rapport à des biens identiques ou de même espèce.[2]

Considérant les présomptions applicables qui allègent souvent le fardeau de preuve des acheteurs et la généralité des termes employés par le C.c.Q. quant à la portée de la garantie contre les vices cachés, l’application de ces principes à des incidents impliquant des systèmes d’IA est susceptible de soulever des plusieurs questions litigieuses, notamment eu égard à la causalité, à la nature des usages « auquel on destine » le système d’IA et à ce qui peut être considéré comme une mauvaise utilisation du bien par l’acheteur susceptible de disculper le vendeur de sa responsabilité en tout ou en partie.

Bien que ces questions ne soient pas uniques aux systèmes d’IA, les caractéristiques propres aux systèmes d’IA, dont leur capacité à apprendre et à agir façon autonome et parfois imprévisible, sont susceptibles de soulever des enjeux de preuve et des questions juridiques nouvelles. Par exemple, si les acheteurs qui souhaitent réclamer des dommages en raison d’un vice caché lié au mauvais fonctionnement d’un système d’IA voudront invoquer les présomptions prévues par le C.c.Q., il demeurera nécessaire, pour bénéficier de ces présomptions, de faire la preuve que l’incident a été causé par un mauvais fonctionnement de l’IA et que cette défectuosité s’est manifestée de façon prématurée. Vraisemblablement, la satisfaction de ces critères dans les cas impliquant des systèmes d’IA complexes nécessitera une preuve d’expert  spécifique et détaillée. Cela sera d’autant plus vrai si les tribunaux en viennent à appliquer les principes en matière de responsabilité du fait des produits à des logiciels faisant usage de l’IA.

La garantie légale de qualité est évaluée en fonction de l’usage « auquel le bien est destiné ». À moins que le vendeur connaisse l’usage particulier envisagé par l’acheteur, les tribunaux prennent en compte l’usage « normal » du bien. Cela soulèvera certainement des questions pour des biens ingérant des systèmes d’IA complexe qui permettent d’accomplir diverses tâches en fonction de ce qui leur est demandé par les usagers et les données qui leur sont fournies. Par exemple, quel serait l’usage « normal » d’un logiciel comme ChatGPT ? Généralement, il faudra se référer aux documents contractuels, incluant les termes et conditions d’achat ou de service, pour bien comprendre les représentations et limites applicables quant aux fonctionnalités du système d’IA, incluant son niveau d’autonomie, les conditions d’utilisation et les conditions d’entretien appropriées.

La présomption de connaissance des vices cachés et les risques de développement

Si les vendeurs de systèmes d’IA tenteront certainement de limiter leur responsabilité le plus possible par l’inclusion de clauses de limitation de responsabilité et imposant à l’utilisateur la responsabilité de superviser les actions du système afin de corriger ses erreurs, la valeur juridique de telles limitations pourrait être remise en question. En effet, il faut rappeler qu’il est impossible pour les vendeurs professionnels d’exclure leur responsabilité pour des vices dont ils avaient connaissance ou qu’ils ne pouvaient ignorer en droit québécois[3].

Conformément aux principes établis par la jurisprudence dans la foulée de l’arrêt ABB c. Domtar[4], les vendeurs professionnels sont présumés connaître les vices affectant leurs produits et leur ignorance constitue généralement une faute en soi[5]. Le fabricant ne peut réfuter la présomption qu’en démontrant qu’il ignorait l’existence du vice et que son ignorance était justifiée[6]. Dans le cas de produits vendus à des consommateurs, les commerçants et les fabricants ne peuvent tout simplement pas alléguer leur ignorance du vice comme défense à une action pour vices cachés[7].

À ce jour, l’ignorance d’un vice a très rarement été invoquée avec succès par des fabricants ou des vendeurs professionnels spécialisés. Pour les systèmes d’IA utilisés dans un contexte commercial qui ne sont pas destinés à des consommateurs, les promoteurs d’IA pourraient possiblement invoquer leur ignorance d’un vice qui serait découvert suivant la mise en marché de leur système. Toutefois, dans la mesure où les fabricants sont présumés avoir vérifié la qualité des produits qu’ils mettent sur le marché, les tribunaux  pourraient être sévères à l’égard des fabricants qui invoqueraient ce moyen de défense[8]. Une exception très spécifique est faite pour le risque de développement qu’il était impossible, pour tous, de connaître lors de la mise en marché du produit. Considérant la nouveauté et la complexité des systèmes d’IA, une telle éventualité semble possible, mais il est fort à parier que les tribunaux prendront en compte les mesures prises par le défendeur pour tester le système avant et après sa mise en marché pour identifier et remédier aux risques pouvant découler de son utilisation avant de disculper un développeur d’IA de sa responsabilité pour les dommages découlant de leur manifestation. Cela est particulièrement vrai dans la mesure où les entrepreneurs du domaine de l’IA ont déjà manifesté leurs inquiétudes quant au déploiement de systèmes d’IA qui n’ont pas été suffisamment testés pour s’assurer que les risques liés à leur utilisation ont été identifiés et peuvent être contrôlés[9], et ce, alors qu’il n’existe encore aucun cadre réglementaire spécifique aux activités de développement et de mise en marché de systèmes d’IA.

La responsabilité du gardien pour le fait autonome d’un bien

Nous avons discuté des obligations incombant aux développeurs et vendeurs de systèmes d’IA, mais qu’en est-il de la responsabilité des utilisateurs ? Dans le contexte d’une réclamation contre le vendeur d’un bien intégrant un système d’IA, la négligence de l’usager dans l’utilisation ou la supervision d’un système d’IA pourra constituer une défense valable ou une faute contributoire susceptible d’entraîner un partage de responsabilité.

De plus, l’opérateur est susceptible d’engager sa responsabilité pour les préjudices causés par un bien intégrant un système d’IA s’il agit à titre de « gardien » du bien en question. En vertu du C.c.Q.[10], le gardien d’un bien est tenu de réparer le préjudice causé par le fait autonome de celui-ci, à moins qu’il prouve n’avoir commis aucune faute.

La responsabilité pour le fait autonome du bien est sujette à deux conditions précises, soit l’absence d’intervention humaine directe dans la création du préjudice et la mobilité ou le dynamisme de l’objet qui a causé le dommage. Bien que la quasi-totalité des exemples pertinents tirés de la jurisprudence concerne le fait autonome de biens physiques, la notion de bien visée par cet article est large et comprend tous les biens meubles, immeubles, corporels et incorporels[11]. Comme pour les garanties légales de qualité, il est donc possible, si le raisonnement adopté par le tribunal dans la décision Fortnite discuté précédemment venait à être suivi, que le régime de la responsabilité pour le fait autonome d’un bien s’applique non seulement à des systèmes d’IA intégrés à des biens physiques, mais également à des systèmes d’IA intégrés à des logiciels.

Le concept de « gardien » d’un bien comprenant un système d’IA est également susceptible de soulever des questions intéressantes. Selon la jurisprudence, le gardien est celui qui avait, au moment où le dommage a été causé, « un pouvoir de surveillance, de contrôle, de direction et de maîtrise »[12]. La garde du bien se distingue de sa simple détention physique. En effet, le détenteur du bien n’en est pas nécessairement le gardien s’il ne peut exercer qu’un contrôle limité sur celui-ci[13]. Dans le cas d’un bien physique comprenant un système d’IA, on pourrait penser que le gardien du bien sera l’utilisateur si ce dernier a un certain pouvoir de contrôle sur le bien et sur les fonctionnalités du système d’IA (ex. : voiture autonome). Dans l’éventualité où il serait considéré que la responsabilité pour le fait autonome d’un bien peut s’appliquer à un logiciel, la détermination de l’identité du gardien du bien pourrait être beaucoup plus complexe et nécessitera d’évaluer l’ensemble des circonstances, incluant le niveau de surveillance, de contrôle, de direction et de maîtrise détenu par les différents intervenants.

Notons que le Projet pilote relatif aux autobus et aux minibus autonomes[14] exige que le chauffeur d’un autobus autonome en mouvement fasse preuve d’une « attention soutenue aux évènements susceptibles de nuire à la sécurité routière, et ce, afin d’être prêt à intervenir en tout temps et rapidement dans la maîtrise du système automatisé du véhicule, de prendre immédiatement en charge la conduite du véhicule ou à adapter sa conduite aux circonstances ». Cela pourrait suggérer que les utilisateurs ne pourront généralement pas se dégager des obligations qui leur incombaient autrement en invoquant le mauvais fonctionnement d’un système d’IA s’ils n’ont pas fait preuve d’une diligence raisonnable ou ont fait défaut de surveiller adéquatement les activités autonomes de l’IA, et ce, particulièrement pour les systèmes d’IA utilisés dans des environnements risqués et déjà hautement réglementés comme les voitures autonomes.

Conclusion

Pour l’instant, les tribunaux devront vraisemblablement trancher les litiges civils impliquant des systèmes d’IA à la lumière du cadre juridique existant en matière de responsabilité civile au Québec. Malgré l’adoption envisagée de la Loi sur l’intelligence artificielle et les données (LIAD) et à moins que le législateur québécois adopte de nouvelles lois ou modifie ses lois existantes pour prévoir des règles précises concernant la responsabilité civile des développeurs, vendeurs, opérateurs et usagers des systèmes d’IA, les tribunaux seront appelés à appliquer et adapter le principes de responsabilité civile existants aux réclamations impliquant des systèmes d’IA.

Si les principes existant en matière de responsabilité du fait des produits prévus par le C.c.Q. et la Loi sur la protection du consommateur en matière de responsabilité du fait des produits (L.p.c.) devraient s’appliquer sans trop de difficultés aux litiges impliquant des produits physiques intégrant des systèmes d’IA, les tribunaux seront sans doute appelés à trancher des questions nouvelles en raison des caractéristiques propres à ces systèmes, incluant leur capacité à accomplir diverses tâches de façon autonome. Par ailleurs, ces litiges risquent de soulever des questions factuelles complexes, notamment quant au lien de causalité entre le fonctionnement du système d’IA et les dommages et le niveau de diligence exercé par l’utilisateur.

Il est beaucoup plus difficile de prévoir le cadre juridique s’appliquera aux litiges civils impliquant des systèmes d’IA intégrés à des logiciels, et ce, particulièrement si de tels  logiciels venaient à être considérés comme des « biens » suivant le raisonnement adopté par la Cour supérieure dans la décision Fortnite. À ce jour, les litiges impliquant des logiciels ont généralement été régis par les principes généraux du droit civil québécois en matière de responsabilité contractuelle. Par contre, cette décision est un signe que les tribunaux pourraient être disposés à suivre les principes de la responsabilité du fait des produits, incluant les garanties légales de qualité contre les vices cachés, la responsabilité du fabricant pour les défauts de sécurité et la responsabilité du gardien pour le fait autonome d’un bien, pour trancher ces litiges. Considérant que ces principes ont généralement été développés en fonction de litiges impliquant des biens physiques, une telle éventualité susciterait une panoplie de questions juridiques nouvelles qui devront être clarifiées par le tribunaux ou le législateur.

Nous continuerons de suivre avec intérêts les initiatives des gouvernements et des acteurs de l’industrie de l’IA concernant les responsabilités des développeurs, des vendeurs et des usages des systèmes d’IA pour les risques liés à leur développement et leur utilisation, et ce, particulièrement pour les usages de l’IA impliquant des risques élevés, que ce soit en raison de leur impact possible sur les droits fondamentaux de tiers (ex. : vie privée, discrimination, etc.), sur la sécurité ou sur la santé des utilisateurs et du public. Par ailleurs, nous porterons une attention particulière à l’évolution de la jurisprudence quant à la qualification de logiciels, incluant ceux faisant usage de systèmes d’IA, à titre de « biens » au sens du C.c.Q. À ce sujet, soulignons que la demande pour permission d’appeler des défendeurs à l’égard de la décision Fortnite a récemment été rejetée, de sorte que cette action collective ira de l’avant. Cette décision risque de mener à d’autres litiges similaires impliquant d’autres jeux vidéo ou d’autres type de services numériques populaires dans les années à venir. D’ailleurs, une demande de permission d’action collective a été déposée le 24 janvier 2023 contre Meta, Facebook et Instragram alléguant qu’elles aurait fait défaut d’aviser les utilisateurs de Facebook et Instagram du risque de développer une dépendance à ces services[15].

En attendant, les développeurs et vendeurs de systèmes d’IA pourront minimiser les risques de réclamations et de litiges en divulguant clairement les fonctionnalités du système, ses limites, ses instructions d’utilisation, de surveillance et de maintenance, ainsi que les risques liés à son utilisation et les moyens de s’en prémunir dans leur documentation contractuelle et en y incluant les clauses de limitation de responsabilité et d’indemnisation appropriées.

Les équipes multidisciplinaires de Fasken sont disponibles pour répondre à vos questions et pour vous assister en lien avec les enjeux légaux liés au développement, à la commercialisation et à l’utilisation des systèmes d’IA, la préparation des documents contractuels ou la résolution de conflits liés à ces systèmes.

 



[1] C.c.Q., art. 1726.

[2] Id.

[3] C.c.Q., article 1728.

[4] 2007 CSC 50.

[5] Deguise c. Montminy, 2014 QCCS 2672 (CanLII), paras. 1114 à 1116.

[6] ABB c. Domtar, 2007 CSC 50, para. 69; CCI Thermal Technologies Inc. c. AXA XL (XL Catlin), 2023 QCCA 231, para. 44.

[7] L.p.c., art. 53.

[8] Imperial Tobacco Canada ltée c. Conseil québécois sur le tabac et la santé, 2019 QCCA 358 (CanLII), para. 295.

[9]https://www.lapresse.ca/affaires/techno/2023-03-29/intelligence-artificielle/yoshua-bengio-et-un-millier-de-personnalites-demandent-une-pause-de-six-mois.php.

[10] C.c.Q., art. 1465.

[11] Québec (Ville de) c. Équipements Emu ltée, (C.A., 2015-08-17), 2015 QCCA 1344.

[12] Société d’assurances générales Northbridge c. 9180-2271 Québec inc. (Restaurant Pizzicato), 2014 QCCS 1304.

[13] Pétroles Cadeko inc. c. 9166-0357 Québec inc., (C.S., 2021-08-30), 2021 QCCS 3774.

[14] Projet pilote relatif aux autobus et aux minibus autonome, RLRQ c C-24.2, r 37.01, art. 13.1.

[15] Voir la demande pour permission d’instituer une action collective déposée par Alexia Robert dans le dossier de la Cour supérieure portant le numéro 500-06-01217-237.