Lorsque l’Intelligence Artificielle devient PDG d’une entreprise

Lorsque l’Intelligence Artificielle devient PDG d’une entreprise
⏱ Lecture 7 min

Par Gérard Haas, Stéphane Astier et Victoire Grosjean

Le déploiement exponentiel de solutions d’intelligence artificielle (IA) dans les domaine de la santé ou de la vie quotidienne, donne régulièrement matière à débat.

Les questions éthiques et juridiques s’y posent avec acuité et participent à un accompagnement utile et nécessaire de cette forme de « progrès » ou à tout le moins d’évolution de la marge technophile de notre civilisation occidentale.

Chaque jour, les lignes bougent un peu plus vite. La digitalisation des sociétés s’accélère de l’ouest à l’est du globe avec des conceptions divergentes de ce que devrait être cette régulation éthique et juridique du progrès technologique.

Dans ce contexte, et pour confronter notre vision du monde guidée par les Droits de l’Homme et la philosophie des lumières, la Chine apparaît aujourd’hui comme un réservoir troublant de scénarios bien réels sensés pourtant appartenir aux pendants dystopiques de la littérature de science-fiction.

Après la notation sociale et la généralisation de la surveillance faciale utilisées comme dispositifs de contrôle Orwelien de la population, une nouvelle actualité de l’Empire du milieu en lien avec l’IA n’a pas manqué de défrayer les chroniques : Tang Yu, robot humanoïde vient d’être nommé PDG d’une société chinoise.

Au-delà du « coup médiatique » probable, une question se pose : une telle désignation serait-elle envisageable au pays de Voltaire et de Descartes ?

Le robot-dirigeant se voit-il reconnaître une personnalité juridique en France ?

Lorsque les professionnels du droit se questionnent sur le statut que la loi doit accorder aux solutions d’IA, et notamment aux robots autonomes, la problématique de la personnalité juridique s’impose rapidement.

Définition de la personnalité juridique

En l’absence de définition légale, la personnalité juridique est couramment définie comme la capacité à être sujet de droit. Bien qu’initialement la personnalité juridique ne pouvait qu’être attachée à une personne ayant une réalité matérielle – c’est-à-dire à un être humain né et viable – ce concept n’a cessé d’évoluer et de s’en détacher.

La personnalité juridique revêt en effet un intérêt certain en ce qu’elle permet à celui qui la possède de jouir de droits, mais également de se voir imposer des devoirs.

Ainsi, c’est la personnalité juridique qui fonde la possibilité d’avoir un patrimoine et d’agir en justice. Il est donc aisé de comprendre que cette notion est centrale dans la vie des affaires.

C’est pour cette raison que ce concept a évolué depuis la rédaction du Code civil en 1804 et qu’il peut désormais être attaché à certaines entités (sociétés, associations, personnes morales de droit public…), qui n’ont rien d’humain : on parle alors de « personnes morales ».

Rappelons également que le droit français permet, sous certaines conditions, qu’une personne morale puisse représenter une autre personne morale.

Cette acception d’une personnalité matériellement fictive en tant que dirigeant d’une société pourrait dès lors les questionnements relatifs à la possibilité de voir un jour les robots autonomes accéder à la tête des entreprises.

L'Intelligence Artificielle face à la notion de personnalité juridique 

L’intelligence artificielle ne pourrait-elle pas, à l’instar des personnes morales, bénéficier d’une évolution de cette notion de personnalité juridique ? Cela leur permettrait de pouvoir occuper, à leur tour, une place juridiquement reconnue dans le monde des affaires.

Ces interrogations alimentent les réflexions de certains commentateurs qui font déjà référence à la notion de « personnalité électronique » ou « numérique ».

Car si Gaston Jèze affirmait, pour souligner le caractère conceptuel de cette notion, qu’il n’avait jamais eu l’occasion de dîner avec une personne morale, il est désormais tout à fait possible dans certains pays de jouer aux échecs contre une intelligence artificielle, voir même d’épouser un androïde.

Serait-il dès lors envisageable, en permettant une nouvelle évolution du droit français en la matière, de pouvoir être recruté par un robot ?

Faute de personnalité juridique, le robot-dirigeant pourrait-il revendiquer en France une forme de personnalité électronique propre ?

Derrière les partisans de la création d’une personnalité électronique se cache l’idée que le statut juridique du robot autonome puisse un jour être totalement déconnecté, notamment au regard des questions de responsabilité, de toute personne physique, utilisatrice ou conceptrice.

Or, la personne morale n’a jamais bénéficié de ce type de « déconnexion ». Au contraire, le statut juridique de la personne morale n’a jamais été pensé qu’au travers des personnes physiques susceptibles d’agir pour son compte.

La déconnexion du statut juridique du robot autonome de toute personne physique

En effet, le Code de commerce n’envisage actuellement les statuts de Président-Directeur-Général (PDG), de Président de Conseil d’administration et de Directeur Général de sociétés anonymes que sous le prisme de la personne humaine : il ne peut s’agir que de personnes physiques, par ailleurs soumises à des conditions propres à l’être humaine, comme des limites d’âge.

En outre, lorsque la direction par une personne morale est autorisée dans d’autres formes de société, le spectre de la personne physique n’est jamais loin, comme le démontre l’article L. 227-7 du Code de commerce applicable aux SAS et selon lequel :

« Lorsqu'une personne morale est nommée président ou dirigeant d'une société par actions simplifiée, les dirigeants de ladite personne morale sont soumis aux mêmes conditions et obligations et encourent les mêmes responsabilités civile et pénale que s'ils étaient président ou dirigeant en leur nom propre. »

Dans ce même sens, les premières dispositions légales françaises envisageant la mise en œuvre d’une responsabilité légale dans le cadre de l’utilisation d’une solution d’IA ne conçoivent pas le robot en dehors de ses liens avec les personnes physiques.

En effet, depuis le 16 avril 2021, l’article 123-1 du Code de la route met à jour un nouveau régime de responsabilité pénal en matière d’utilisation de voiture autonome. Or, ce régime n’envisage pas que la responsabilité d’aucune personne physique ou morale ne soit engagée en cas de dommage causé par une voiture autonome : selon les circonstances la personne responsable sera le conducteur ou le constructeur.

Le droit communautaire semble également ne pas avoir la volonté d’octroyer à la solution d’IA un statut juridique proche de celui de la personne physique.

Débat sur le statut juridique des solutions d'IA

En ce sens, le Parlement européen a pu recommander à la Commission, dans une résolution de 2017, de créer une « personnalité juridique spécifique aux robots ». Cette éventualité a cependant été écartée en 2020 par la Commission qui en a conclu « qu’il n’est pas nécessaire de conférer la personnalité juridique aux systèmes d’IA ».

Ce positionnement des instances européennes n’implique cependant pas que l’utilisation de telles technologies au sein des directions d’entreprise ne soit pas d’actualité.

Au contraire, il est évident que l’usage de solutions d’IA au sein des directions (tableau de bord de pilotage, assistant virtuel, logiciel d’analyse de tendances…) est de plus en plus fréquent. On parle alors d’outils intelligents d’aide à la décision. Mais ces outils se limitent-ils réellement à une simple aide ? Les biais dont ils sont parfois entachés ne constituent-ils pas déjà des risques inhérents à notre aliénation croissante à ce type de dispositif.

Aussi, est-il nécessaire que les concepteurs et utilisateurs d’IA ne négligent pas les enjeux juridiques et éthique qu’elles impliquent. Sur ce point le RGPD, en prévoyant des mécanismes d’information, d’opposition et des formalismes spécifiques à tout dispositif automatisé de prise de décision sans intervention humaine dès lors que ces décisions ont un impact substantiel sur la vie des personnes a justement ouvert à une réflexion plus large ; une réflexion portant sur la conception même de l’IA et sa finalité.

Les enjeux de l’utilisation des robots au sein des directions d’entreprise

L’utilisation de solutions d’IA au sein des directions d’entreprise interroge nécessairement sur la notion de responsabilité du dirigeant. D’autant que les dirigeants sont invités à utiliser de telles technologies, comme le démontre la publication en 2021 d’un guide de pilotage sur « l’intelligence artificielle au sein des fonctions de direction » par Perspectives IA, un projet à l’origine duquel sont le Ministère du travail, de l’emploi et de l’insertion, le MEDEF et French Digital.

Or, en France, il n’existe actuellement pas de réglementation spécifique applicable aux dommages causés par les intelligences artificielles.

Certes, la Commission européenne a annoncé fin septembre 2022 se saisir de cette question, avec l’annonce d’une proposition de directive « relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle ». Il ne s’agit cependant pour le moment que d’une simple proposition et la question de la responsabilité du dirigeant employant ces technologies n’y est pas abordée.

Pourtant, cette problématique est essentielle au regard de l’impact plus ou moins grand que peut avoir un robot autonome sur les décisions prises par un dirigeant et donc sur la responsabilité de ce dernier.

Est-il en effet envisageable qu’un dirigeant puisse prouver qu’il n’était pas en mesure d’influencer le comportement d’une solution d’IA qu’il utilise pour s’exonérer de sa responsabilité pénale ?

De même, pour échapper à la mise en œuvre de sa responsabilité civile, le dirigeant pourrait-il invoquer qu’il n’a pas tenté d'obtenir des associés une augmentation du capital nécessaire à la survie de l’entreprise parce que la solution d’IA utilisée le lui déconseillait ?

Il est également nécessaire de rappeler que faire appel à des robots pour la prise de décisions, notamment relatives aux salariés, ne signifie pas que ces décisions seront neutres et exemptes de toute discrimination. Les solutions d’IA sont en effet entraînées et alimentées par des données qui proviennent de personnes humaines. Elles peuvent donc être impactées par des biais cognitifs, parfois racistes ou sexistes, et dès lors prendre des décisions discriminantes.

La prudence est donc requise pour les directions qui utilisent des solutions d’intelligence artificielle dans la gestion de l’entreprise.

En l’absence de dispositions juridiques claires en la matière, il ne peut qu’être recommandé aux dirigeants utilisateurs de ces technologies de s’informer sur les implications juridiques que leur utilisation induit, et ce avant leur implémentation au sein de l’entreprise.

Cela implique dans un premier temps d’évaluer la conformité de la solution envisagée du point de vue des réglementations applicables (protection des données personnelles, droit du travail, droit social, cybersécurité…) mais également d’un point de vue éthique.

Dans un second temps, l’implémentation et la mise en œuvre de cette solution doivent être encadrées d’un point de vue technique et juridique et documentées afin de prévenir tout contentieux lié à son utilisation.

En définitive, l’ère des robots dotés d’une personnalité juridique et capables d’employer des humains ne semble pas d’actualité. A cet égard, il convient de se demander s’il s’agit véritablement d’un progrès en adéquation avec les préoccupations de notre époque.

Les derniers débats en matière d’intelligence artificielle portent en effet à croire que le progrès ne doit pas tant être guidé par la volonté d’augmenter l’autonomie des robots que par la recherche d’une finalité conforme aux enjeux de notre époque. Preuves en sont les nombreux concepts qui encadrent désormais la conception de ces solutions d’IA.

A ce jour, les développeurs et fabriquant qui souhaitent rassurer les utilisateurs ne peuvent plus faire l’impasse sur des notions comme l’ecology by design – qui implique une prise en compte des préoccupations environnementales dans la création des robots – ou encore comme le respect du droit à la vie privée.

***

Le Cabinet HAAS Avocats, fort de son expertise depuis plus de 25 ans en matière de nouvelles technologies, accompagne ses clients dans différents domaines du droit, notamment en matière d’intelligence artificielle. Si vous souhaitez avoir plus d’informations au regard de la réglementation en vigueur ou si vous avez un litige en lien avec l’intelligence artificielle, n’hésitez pas à faire appel à nos experts pour vous conseiller. Contactez-nous ici.

Gérard HAAS

Auteur Gérard HAAS

Suivez-nous sur Linkedin