L'Intelligence artificielle, nouvel outil de décision de justice ?

L'Intelligence artificielle, nouvel outil de décision de justice ?
⏱ Lecture 4 min

Par Kate Jarrard et Lucile Desbordes

A l’heure où la fracture numérique s’aggrave, un décret portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust » a vu le jour le 27 mars dernier, autorisant la Chancellerie à mettre en œuvre, pour une durée de 2 ans, un nouveau logiciel doté d’intelligence artificielle.

Ce dernier permettra d’analyser les données jurisprudentielles relatives à l’indemnisation des préjudices corporels des victimes, et de créer ainsi un référentiel dans ce domaine.

La publication étonnante du décret en pleine épidémie Covid-19 permet à tout le moins de revenir sur ses dispositions et les nombreuses problématiques qu’il soulève.

1. L’intelligence artificielle pour indemniser les victimes

A ce jour, hormis la nomenclature dite Dintilhac utilisée par les tribunaux, il n’existe pas de référentiel commun aux magistrats, avocats et assureurs pour calculer l’indemnisation des préjudices corporels subis par les victimes.

La Direction des affaires civiles et du sceau (DACS) a donc souhaité créer un outil pour rassembler toutes ces données et permettre la naissance d’un référentiel.

Selon le décret, le traitement algorithmique servira à :

  • Analyser et évaluer les outils déjà mis en place par les politiques publiques en matière de responsabilité civile ;
  • Élaborer un référentiel indicatif d’indemnisation des préjudices corporels ;
  • Transmettre ce référentiel pour favoriser les transactions avec les victimes préalables à tout litige ;
  • Constituer une aide pour les juges dans le calcul de l’indemnisation pour tous les types de préjudices.

DataJust recensera, par type de préjudice corporel, les montants demandés par les parties, les évaluations proposées au cours de procédures de règlement amiable, et les sommes allouées par le juge.

Le traitement sera effectué à partir des décisions rendues au cours des 3 dernières années en appel par les juridictions administratives et les formations civiles des juridictions judiciaires. Toutes les nouvelles décisions rendues lors de l’expérimentation seront également intégrées au logiciel.

Ainsi, les agents du ministère auront accès à l’ensemble des données, y compris sensibles, des décisions issues des bases de données de la Cour de cassation (JuriCA) et du Conseil d’Etat (Ariane). telles que :

  • Des données d’identification (noms des personnes mentionnées dans les décisions, date de naissance, genre, lieu de résidence ou encore lien de parenté avec les victimes),
  • Des données propres aux préjudices (nature des atteintes à l’intégrité, la dignité et à l’intimité, dépenses de santé, prédispositions pathologiques de la victime, etc.),
  • Des données d’ordre financier et professionnel (emploi, perspectives d’évolution, droits à la retraite, etc.),
  • Des données relatives aux infractions pénales (FTIG par exemple),
  • Ou encore des données relatives à des « fautes civiles ».

2. Les questions soulevées par ce nouvel outil

La Commission national de l’informatique et des libertés (CNIL), dans un avis du 9 janvier 2020, a analysé le fonctionnement du dispositif et son impact en termes de protection des données.

Elle relève que la Chancellerie doit bénéficier d’un accompagnement spécifique pour la mise en place du logiciel afin que les principes de vigilance et de loyauté soient respectés, et souhaite être tenue informée de toutes les mesures d’accompagnement dont la Chancellerie bénéficierait.

De plus, afin d’établir cet outil de manière pérenne, la Commission demande qu’un bilan lui soit remis, comprenant :

  • Les éléments d’appréciation portant sur la présence d’éventuels biais de l’algorithme identifiés et les correctifs envisagés et/ou appliqués en conséquence ;
  • La liste précise des catégories de données et informations identifiées comme nécessaires au regard des finalités du traitement ainsi que la nature des données auxquelles chaque catégorie de destinataires pourra accéder ;
  • La description des processus de pseudonymisation supplémentaires qui seront appliqués.

Concernant la collecte des données, la CNIL considère que les données traitées sont adéquates, pertinentes et non excessives au regard des finalités poursuivies, sous réserve d’une pseudonymisation partielle préalable (tous les noms des parties seront effacés).

Quant au sort des données relatives à la santé et/ou à la vie sexuelle, dites sensibles, la CNIL n’émet pas de recommandations particulières : le logiciel est créé pour référencer des indemnisations de préjudices corporels, et sera amené dans tous les cas à traiter ce genre d’information. Les principes applicables en la matière (notamment l’information des personnes, le consentement et les exceptions possibles à ce consentement) n’ont pas été évoqués, et au surplus, le droit d’opposition des personnes concernées n’est pas prévu dans le cadre de ce traitement.

Mais bien plus encore, l’autorisation de création du logiciel pose de nombreuses questions en termes de justice prédictive.

Le logiciel doté d’IA fonctionne selon la technique de l’exemple : l’on transmet à la machine des décisions qu’elle va analyser, afin de donner un pourcentage, un résultat prédéterminé par le concepteur. En l’occurrence, ici c’est donner un chiffre pour un type de préjudice.

Or, le contentieux en matière de responsabilité est extrêmement vaste et complexe. Les magistrats ont fait preuve d’une grande créativité en la matière afin de couvrir tous les préjudices possibles et de proposer une indemnisation juste. Ils s’adaptent aux nouveaux accidents, notamment liés aux nouvelles technologies. Fixer ainsi un référentiel basé sur les trois dernières années pourrait s’avérer incomplet pour l’avenir, à moins de devenir pérenne...

De la même façon, croiser les données de juridictions, dont le fonctionnement diffère largement, n’a peu de sens.

Les juges devront se servir de cet outil avec parcimonie pour ne pas passer à côté d’un nouveau préjudice.

Là est tout le risque, puisque ce référentiel aura vocation à être accessible à la fois aux professionnels du droit, aux victimes et aux assureurs.

En fin de compte, les justiciables pourraient se voir lésés par un outil conçu à l’origine pour mieux les indemniser.

 « DataJust » permettrait d’obtenir une vue d’ensemble des indemnisations pour privilégier le recours au règlement amiable des litiges ou faciliter les décisions. Mais le décret ne répond pas à toutes les questions pratiques et éthiques que posent une telle technologie. La déjudiciarisation et la déshumanisation de la réparation sont des risques à courir avec ce nouvel outil.

Et la période de publication du texte ne favorise malheureusement pas le débat.

***

Le Cabinet HAAS Avocats, fort de son expertise depuis plus de 20 ans en matière de nouvelles technologies, accompagne ses clients dans différents domaines du droit, notamment en matière de protection des données à caractère personnel. Si vous souhaitez avoir plus d’informations au regard de la réglementation en vigueur, n’hésitez pas à faire appel à nos experts pour vous conseiller. Contactez-nous ici

Kate JARRARD

Auteur Kate JARRARD

Suivez-nous sur Linkedin