La création d'un régime spécifique de responsabilité de l'Intelligence Artificielle

La création d'un régime spécifique de responsabilité de l'Intelligence Artificielle

Par Gérard Haas et Chloe Godineau

Assistants intelligents présents sur les téléphones, voitures et drones autonomes, robots aspirateurs, reconnaissance vocale et faciale… La réalité dépasse désormais la fiction et des systèmes d’intelligence artificielle sont intégrés dans de nombreux objets et outils du quotidien afin d’en multiplier les fonctionnalités et d’en accroître les performances.

Définie comme un « ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine », l’intelligence artificielle a connu, ces dernières années, une croissance exponentielle.

En septembre 2022, Tang Yu, un robot humanoïde piloté par une intelligence artificielle, a même été nommé PDG de la société NetDragon Websoft, un des leaders chinois de l’industrie des jeux vidéo, et compte, aujourd’hui, plusieurs milliers de salariés sous sa direction.

Le cadre juridique de l'Intelligence Artificielle

Face à l’essor de ce phénomène, il apparaît nécessaire de s’interroger sur le cadre légal applicable à l’intelligence artificielle, et notamment sur les moyens à disposition des victimes d’intelligence artificielle pour obtenir réparation de leurs préjudices.

Les dommages causés par les Intelligences Artificielles

L’ensemble des dispositifs physiques ou virtuels gérés par des systèmes d’IA peut être la cause de dommages variés.

Les intelligences artificielles sont susceptibles, tout d’abord, d’occasionner des dommages corporels. Un drone piloté par une IA pourrait, par exemple, percuter et blesser une personne. En juillet 2022, un robot a notamment, lors d’un tournoi d’échecs en Russie, cassé le doigt d’un enfant.

Les intelligences artificielles peuvent également engendrer des dommages d’ordre moral, par exemple, dans l’hypothèse de discriminations à l’embauche causées par un processus géré par une IA, ou encore d’ordre économique, comme cela fut le cas en mai 2010 à Wall street, lorsque des programmes de trading ont donné des ordres erronés provoquant un krach en bourse.

Une réglementation peu favorable aux victimes des Intelligences Artificielles  

En France, en l’absence d’une réglementation spécifique applicable aux dommages causés par les intelligences artificielles, les victimes ont la possibilité de recourir aux divers régimes de responsabilité prévus par le Code civil, à savoir la responsabilité pour faute[1], la responsabilité du fait des choses[2] ou encore la responsabilité du fait des produits défectueux[3].

Cependant, au regard de la nature complexe de l’intelligence artificielle ainsi que des nombreux acteurs intervenant dans la chaîne de responsabilité, les victimes se heurtent parfois à certaines difficultés pour obtenir réparation de leurs préjudices.

Par exemple, concernant la responsabilité pour faute, les victimes doivent clairement identifier la personne responsable et démontrer l’existence d’une faute, d’un préjudice et d’un lien de causalité entre la faute et le préjudice, l’établissement d’un lien de causalité entre une faute et le résultat d’un système d’IA à l’origine du dommage n’étant pas toujours évident.

Il en est de même concernant la responsabilité du fait des produits défectueux car les victimes auront la tâche ardue de rapporter la preuve de la défectuosité de l’intelligence artificielle.

Quant à la responsabilité du fait des choses, la présomption de responsabilité pesant sur le gardien d’une chose semble difficilement compatible avec la sphère d’autonomie dont dispose l’intelligence artificielle.

Ainsi, compte tenu des spécificités inhérentes à l’intelligence artificielle, système complexe, connecté, opaque, vulnérable, autonome, doté de capacités d’autoapprentissage et modifiable par des mises à jour, l’ensemble de ces mécanismes peuvent en réalité s’avérer difficiles à mettre en œuvre pour les victimes d’intelligence artificielle les privant ainsi, dans certains cas, de leur droit à réparation.

La nécessité de créer une responsabilité du fait des Intelligences Artificielles

Parce que les règles nationales actuelles de responsabilité ne sont pas pleinement efficaces en matière d’IA, la Commission européenne s’est penchée sur la nécessité de créer un cadre légal visant à encadrer l’utilisation des systèmes d’intelligence artificielle.

Le 21 avril 2021, la Commission européenne avait déjà dévoilé une proposition de règlement établissant des règles harmonisées en matière d’intelligence artificielle.

Afin de compléter ce dispositif, la Commission européenne s’est récemment interrogée sur l’opportunité de créer un régime de responsabilité spécifique applicable à l’intelligence artificielle et a publié le 28 septembre 2022 une proposition de directive « relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle ».

Ce nouveau texte vient compléter le règlement en date d’avril 2021 en modernisant le cadre de l’UE en matière de responsabilité civile, introduisant pour la première fois des règles spécifiques aux dommages causés par des systèmes d’intelligence artificielle afin de faciliter le recours des victimes.

La Commission européenne a ainsi souhaité, par ce projet, garantir les victimes en leur fournissant les mêmes normes de protection lorsqu’elles sont lésées par un système d’IA que lorsqu’elles sont lésées dans d’autres circonstances.

Les solutions apportées pour la réparation des préjudices causées par les Intelligences Artificielles

Deux principales mesures ont été pensées par la Commission pour faciliter la réparation des préjudices causés par des intelligences artificielles : l’instauration d’une présomption de causalité et la simplification d’accès aux éléments de preuve.

Alléger la charge de la preuve des victimes d’Intelligence Artificielle

La première mesure consiste à instaurer une présomption réfragable d’un lien de causalité en cas de faute, grâce à laquelle les victimes n’auraient pas à démontrer le dysfonctionnement de l’intelligence artificielle, qui peut s’avérer fastidieux.

Cette présomption de causalité dispenserait les victimes d’IA de la charge de la preuve dès lors qu’elles parviendraient à démontrer qu’une personne, physique ou morale, a commis une faute en ne respectant pas une obligation pertinente pour le dommage (par exemple en cas de non-respect d’un devoir de vigilance concernant l’utilisation de l’IA) et que l’existence d’un lien de causalité entre ce dommage et la performance de l’IA est raisonnablement probable.

Ainsi, la présomption de causalité sera introduite dès lors qu’il peut être considéré comme probable que la faute en cause a influencé le résultat du système d’IA ou son incapacité à produire un résultat, la juridiction pouvant présumer que ce non-respect a causé le dommage.

Cette présomption de causalité dispense ainsi les victimes de l’obligation de démontrer la nature de la faute ou l’omission ayant causé le dommage.

Faciliter la divulgation d’éléments de preuve

La seconde mesure consiste à simplifier l’accès aux éléments de preuve détenus par les personnes dont la responsabilité est envisagée.

Il sera ainsi possible aux victimes de demander à une juridiction d’ordonner la divulgation d’informations relatives aux systèmes d’IA jugés « à haut risque » et soupçonnés d’avoir causé un dommage.

Cette procédure a pour objectif de permettre aux victimes d’IA d’identifier plus rapidement la personne responsable du dommage et la cause du problème.

Toutefois, afin de ne pas porter atteinte aux intérêts légitimes de toutes les parties, notamment afin d’assurer la protection des secrets d’affaires, cette divulgation sera soumise à certaines conditions et devra par ailleurs être nécessaire et proportionnée.

Cette nouvelle directive ne serait pas bénéfique qu’aux victimes d’intelligence artificielle mais présenterait également des avantages pour les entreprises du secteur, qui seraient plus à même d’évaluer et d’anticiper leurs risques en matière de responsabilité.

Reste à savoir si ce texte sera approuvé par le Parlement européen et le Conseil de l’Union européenne afin que ces dispositions soient intégrées dans le droit de l’Union.

***

Le Cabinet HAAS Avocats, fort de son expertise depuis plus de 25 ans en matière de nouvelles technologies, accompagne ses clients dans différents domaines du droit, notamment en matière d’intelligence artificielle. Si vous souhaitez avoir plus d’informations au regard de la réglementation en vigueur ou si vous avez un litige en lien avec l’intelligence artificielle, n’hésitez pas à faire appel à nos experts pour vous conseiller. Contactez-nous ici.

 

[1] Article 1240 du Code civil « Tout fait quelconque de l'homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer. »

[2] Article 1242 du Code civil « On est responsable non seulement du dommage que l’on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l’on a sous sa garde ».

[3] Article 1245 du Code civil « Le producteur est responsable du dommage causé par un défaut de son produit, qu’il soit ou non lié par un contrat avec la victime ».

Gérard HAAS

Auteur Gérard HAAS

Suivez-nous sur Linkedin