Par Gérard HAAS et Axelle POUJOL
En Europe, l’Estonie fait figure d’exemple en matière de transition numérique : paiement des impôts, création d’entreprises et vote en ligne, ouverture d’une e-ambassade au Luxembourg pour protéger ses données, octroi d’une carte d’identité numérique à chaque citoyen pour bénéficier d’une multitude de services… Les exemples en matière de digitalisation des services ne manquent pas.
Aujourd’hui, le gouvernement estonien entend de nouveau s’illustrer par rapport à ses voisins européens : il a annoncé le lancement d’un programme pour introduire de l’intelligence artificielle dans son appareil judiciaire[1].
Le gouvernement a demandé à son chief data officer de superviser le développement d’un projet novateur : mettre en place un robot-juge, dont la mission consisterait à étudier et trancher des litiges mineurs (moins de 7000 euros de dommages).
En pratique, les parties fourniraient leurs documents, allégations et toutes leurs preuves à une plateforme afin d’alimenter cette intelligence artificielle. Après analyse de ces informations, le robot rendrait son verdict, à l’instar d’un magistrat. En principe, les décisions prises par le robot demeureront soumises à une évaluation faite par un humain pour validation finale.
Si l’usage d’un robot-juge par un Etat pour son système judiciaire est novateur, le recours à l’intelligence artificielle dans l’industrie du droit ne l’est pas : depuis quelques années, de nombreuses innovations en la matière ont vu le jour dans le monde.
L’intelligence artificielle se développe dans de nombreux secteurs, devenant un marché très concurrentiel à l’échelle mondiale. La justice et plus largement l’industrie du droit ne font pas exception à cette règle : création de documents juridiques, automatisation de tâches basiques, calculs à des fins statistiques et algorithmes de justice prédictive, autant d’innovations qui connaissent un essor important depuis quelques années[2].
De nombreux pays se dotent ainsi d’outils destinés à faciliter certaines tâches juridiques ou à des fins de justice prédictive : on peut notamment citer les USA, qui utilisent des algorithmes pour estimer le risque de récidive de certains détenus[3], ou encore la Chine, qui veut prédire les crimes de ses citoyens grâce à l’intelligence artificielle[4].
En France, de nombreuses legaltechs, start-ups du droit, développent des projets recourant à l’intelligence artificielle pour les professionnels du droit et les particuliers : à titre d’exemples, des plateformes permettent d’estimer le montant de dommages-intérêt, pensions, indemnités diverses à partir de documents fournis par les personnes. D’autres plateformes permettent d’évaluer les chances de succès d’un procès ou les risques juridiques générés par certaines situations à partir de l’analyse de milliers de décisions de justice et des éléments mis à leur disposition[5].
Ces plateformes font usage d’algorithmes qui brassent et analysent des volumes importants de données. L’avènement du Big data et de l’Open data a permis une accélération importante des innovations en la matière[6].
Si les créations en matière d’intelligence artificielle se multiplient, de nombreux enjeux et de nombreuses polémiques autour de leur utilisation naissent également, faisant apparaitre les limites de celle-ci.
L’intelligence artificielle bouleverse de nombreux secteurs et les enjeux économiques, sociaux et éthiques consécutifs donnent lieu à des réflexions diverses de la part d’acteurs privés et publics. L’intelligence artificielle pose également des questions juridiques multiples.
Tout d’abord, la question des biais cognitifs montre les limites de l’objectivité de l’intelligence artificielle: en effet, chaque être humain, culturellement, a des biais cognitifs qui modifient son raisonnement et son approche d’une situation. Le concepteur d’une intelligence artificielle est susceptible de lui transmettre ses propres biais, qui peuvent ainsi fausser les résultats fournis par l’intelligence artificielle.
Le recours à des algorithmes donnant lieu à des décisions automatisées pose également la question de la transparence et des risques de discriminations : plusieurs polémiques ont éclaté sur ces sujets, comme celle sur les algorithmes de Parcoursup, la plateforme d’orientation des bacheliers.
Afin de prévenir ces risques, le Règlement général européen sur la protection des données (RGPD)[7] prévoit que par principe, une personne a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé de ses données, y compris le profilage[8], produisant des effets juridiques la concernant ou l’affectant de manière significative. Le RGPD liste ensuite une série d’exceptions afin de permettre l’utilisation de cette pratique dans des cas limités[9].
D’autres questions connexes sont également au cœur du sujet: cybersécurité et protection des données, responsabilité et protection des droits et des libertés des personnes … Tels sont les sujets qui, au regard du développement de l’intelligence artificielle et de ses impacts potentiels, entraineront de nombreuses évolutions et un besoin d’adaptation.
Nos solutions
Le Cabinet HAAS Avocats, spécialisé depuis 20 ans dans le domaine des nouvelles technologies, vous accompagne dans l’élaboration de vos projets. Contactez-nous ici.
[1] https://usbeketrica.com/article/estonie-robots-justice
[2] https://www.village-justice.com/articles/Opportunites-intelligence-artificielle-droit,20440.html
[3] https://usbeketrica.com/article/un-algorithme-peut-il-predire-le-risque-de-recidive-des-detenus
[4] https://www.france24.com/fr/20170724-chine-veut-predire-crimes-citoyens-grace-a-une-intelligence-artificielle
[5] http://www.leparisien.fr/high-tech/la-justice-predictive-melange-de-droit-et-d-intelligence-artificielle-01-02-2017-6645696.php
[6] http://internetactu.blog.lemonde.fr/2017/09/09/la-justice-predictive-13-lenjeu-de-louverture-des-donnees/
[7] https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32016R0679&from=FR
[8] Article 4 du RGPD : le profilage est défini comme « toute forme de traitement automatisé de données à caractère personnel consistant à utiliser ces données à caractère personnel pour évaluer certains aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des éléments concernant le rendement au travail, la situation économique, la santé, les préférences personnelles, les intérêts, la fiabilité, le comportement, la localisation ou les déplacements de cette personne physique »
[9] Article 22 du RGPD