Par Stéphane Astier et Marie Torelli
Qu’il s’agisse de choisir les études supérieures de nos enfants, d’attribuer une course à un chauffeur, un prêt bancaire, ou encore de recommander un contenu ou de trier des CVS, les algorithmes servent de moteur aux plateformes que nous utilisons quotidiennement.
Pourtant, dans bien des cas, personne n’est capable d’expliquer comment ils fonctionnent. Rappelons ici que l’une des origines des dernières crises financières de 2008 est due au fait que l’algorithme d’analyse de produits financiers qui se sont avérés toxiques avait été conçu par un ancien salarié et manipulé par des traders et autre analystes qui n’en connaissaient pas les règles de fonctionnement…
Dans tous les cas, chacun pourra s’entendre sur le fait que les résultats produits par les algorithmes ne sont jamais neutres. Ils sont susceptibles d’impacter autant la finance mondiale que le revenu d’un VTC, de vous recommander des « fake news » ou encore de vous écarter d’un poste pour lequel vous êtes pourtant qualifié.
Dès lors qu’ils ont des conséquences sur les droits des personnes qui les utilisent, les algorithmes et leur effet « boîte noire » sont de plus en plus critiqués. Une appréhension juridique des biais de l’intelligence artificielle[1] est ici déterminante.
Ainsi, en juillet dernier, un collectif de chauffeurs a saisi la justice néerlandaise afin d’obtenir communication de l’algorithme de la société UBER qu’ils accusaient de discrimination.
En Guadeloupe, le Tribunal administratif avait condamné l’Etat à divulguer l’algorithme local de ParcourSup à la demande des étudiants qui invoquaient une rupture d’égalité[2].
Ce besoin de transparence et de loyauté s’accompagne de transformations juridiques importantes.
Le règlement européen « P2B » avait déjà amorcé ce mouvement en imposant aux opérateurs de plateformes d’informer les utilisateurs des critères utilisés par leurs algorithmes pour référencer les offres[3] sans toutefois avoir à divulguer ces algorithmes.
Le Digital Services Act marque une nouvelle étape dans la responsabilisation des producteurs d’algorithmes qui ont désormais l’obligation de réaliser des audits « de la responsabilité et de la transparence en matière d’algorithmes »[4].
Ces objectifs de loyauté et de transparence ne doivent toutefois pas conduire les entreprises à divulguer leurs algorithmes qui représentent des actifs immatériels à forte valeur.
La mise en place d’une documentation appropriée pourra ainsi permettre aux concepteurs d’algorithmes de concilier leurs nouvelles obligations avec la nécessaire protection de leur savoir-faire.
Concrètement, un algorithme constitue une suite d’opérations mathématiques destinées à produire un résultat.
Seul, l’algorithme n’est pas plus nocif qu’une équation.
Toutefois, lorsqu’il est placé dans un écosystème de données sur la base desquelles il s’entraîne à prendre les décisions, l’algorithme est susceptible de produire ce qu’on appelle des « biais », c’est-à-dire des résultats qui ne sont pas neutres.
Or, ces biais algorithmiques sont susceptibles d’avoir des conséquences juridiques particulièrement nocives :
A titre d’exemple, on peut citer l’algorithme de tri des CVS d’Amazon qui écartait automatiquement les CVS de femmes de postes à responsabilité, un biais appris de la pratique des recruteurs à partir de laquelle il avait été entraîné[5].
On pense également à l’algorithme de recommandations de YouTube dont le moindre changement est susceptible d’impacter négativement les revenus perçus par les créateurs de contenu.
Le fonctionnement de l’algorithme, qui n’avait pas été pensé pour gérer ce type de crise, a eu des conséquences préjudiciables sur la réputation d’Uber laquelle a été contrainte, en plus de faire des excuses publiques, de rembourser l’ensemble des sommes perçues au titre de ces courses.
En documentant leurs algorithmes, les entreprises peuvent considérablement réduire les risques contentieux et, par conséquent, financiers, résultant des biais créés par leurs algorithmes.
Ainsi, à titre d’exemple, une cartographie des risques pourra permettre d’identifier et de corriger les points d’écart relevés. Un code de bonne conduite pourra, quant à lui, expliquer aux utilisateurs les mesures mises en place par les concepteurs pour tester la loyauté de leurs algorithmes.
En limitant l’effet « boîte noire » de leurs algorithmes, les entreprises peuvent aussi renforcer la confiance des utilisateurs dans leurs outils et limiter ainsi les risques en termes d’e-reputation qui peuvent s’avérer particulièrement dévastateurs.
Dans le cadre d’une gestion de risque efficace, la documentation d’un algorithme constitue donc un outil particulièrement stratégique.
Afin d’être en mesure d’établir une documentation adaptée, il sera nécessaire de réaliser des audits récurrents de l’algorithme.
Qu’il s’agisse des procédures basées sur l’éthique ou de la méthode « end-to-end » de Google, l’audit doit permettre d’identifier les biais actuels ou potentiels de l’algorithme.
Le rapport d’audit devra aussi établir un diagnostic juridique permettant de cartographier les écarts entre les biais relevés et la réglementation applicable ainsi que les mesures préconisées pour y remédier.
Une fois ce travail réalisé, les concepteurs d’algorithmes pourront construire une documentation adaptée à leurs besoins spécifiques en tenant compte des objectifs de transparence et de loyauté.
Un algorithme est suffisamment documenté lorsqu’il dispose d’une documentation « Utilisateurs », d’une documentation « Autorités de contrôle » et d’une documentation « Interne ».
Ce premier kit de documentation doit permettre aux concepteurs d’algorithmes de fournir une information loyale et transparente aux utilisateurs de leurs algorithmes.
A cet effet, il pourra notamment être prévu de mettre en place :
Ces éléments, qui constituent des informations capitales sur les services fournis par les plateformes devront être rédigés avec soin afin, d’une part, de préserver le savoir-faire des concepteurs d’algorithmes et, d’autre part, de ne pas induire les consommateurs en erreur, ce qui pourrait constituer une pratique commerciale trompeuse[6].
Il s’agit également d’être en mesure de justifier de la conformité de l’algorithme auprès des autorités de contrôle et notamment de la CNIL ou de l’Autorité de la Concurrence.
A cet effet, le seul rapport d’audit pourrait s’avérer insuffisant. Il s’agira de tenir un registre des modifications et des correctifs apportés à l’algorithme au regard des conclusions de cet audit.
Cette démarche de « whitepaper » ne doit pas être négligée.
En effet, dans une affaire récente, un tribunal italien a condamné la société Deliveroo pour les discriminations résultant des biais de son algorithme.
Elle a alors relevé que ce biais était dû à une « légèreté » de Deliveroo dans le développement de l’algorithme qui, faute de la documentation appropriée, n’avait pas pu prévoir les effets discriminants de son algorithme.
Les algorithmes sont susceptibles d’être protégés par le secret des affaires.
Afin de bénéficier de cette protection qui présente des avantages stratégiques importants, les concepteurs d’algorithmes doivent toutefois veiller à mettre en place un kit de documentation interne démontrant qu’ils ont pris toutes les précautions nécessaires pour préserver la confidentialité de l’algorithme.
Concrètement, il s’agira de mettre en place des accords de confidentialité et/ou des clauses de non-concurrence permettant d’encadrer l’utilisation des algorithmes par les différents intervenants, qu’il s’agisse des développeurs ou des éventuels sous-traitants.
La mise en place de l’ensemble de cette documentation constitue un enjeu crucial pour les entreprises désirant se placer comme des acteurs « dignes de confiance » sur Internet.
Dans le cadre d’une gestion opérationnelle des risques, les concepteurs d’algorithmes ont tout à gagner à implémenter au plus vite cette documentation qui leur permettra de concilier leurs objectifs de transparence avec la nécessaire protection de leur savoir-faire.
***
Le cabinet Haas Avocats se tient à votre disposition pour vous accompagner dans la protection et la valorisation de vos algorithmes. Pour en savoir plus, rendez-vous ici.
[1] Cf. Gérard HAAS, Stéphane ASTIER : « Les biais de l’intelligence artificielle : quels enjeux juridiques ? » Ed. Rep. Dallz IT/IP - 2019
[2] https://www.theguardian.com/technology/2020/jul/20/uber-drivers-to-launch-legal-bid-to-uncover-apps-algorithm?CMP=share_btn_tw
[3] Règlement P2B, Considérants 24 et 27
[4] Digital Services Act, exposé des motifs et considérants 58 à 61
[5] https://www.bbc.com/news/technology-45809919
[6] Art. L.121-2 à L.121-4 du code de la consommation