Par Gérard Haas et Eve Renaud-Chouraqui
Les plateformes doivent-elles être considérées comme responsables des contenus diffusés par leurs utilisateurs ?
Cette question n’est pas nouvelle et revient régulièrement dans le débat public. Elle a été relancée par l’épidémie de COVID-19 qui a démontré que les plateformes étaient un lieu de diffusion de désinformation de toutes sortes.
Le contexte de pandémie mondiale et de crise économique a eu pour effet de faire ressortir les comportements les plus sombres : défiance à l’égard des gouvernements, des médecins, des laboratoires, des médias, théories du complots, idéologies extrémistes en tous genres.
L’impact négatif de ces comportements prend une ampleur particulière, au regard de l’audience exacerbée des réseaux sociaux opérés notamment par les GAFA et de leur forte utilisation par les populations les plus jeunes.
L’importance de ce phénomène est telle que certaines plateformes ont, en coordination avec certains gouvernements, accentué les mesures de modération pour endiguer la diffusion virale des fake news liées, soit à la gravité de l’épidémie, soit à sa réalité, soit encore aux vaccins et autres mesures mises en place pour endiguer la maladie.
La Commission européenne a également relancé ce débat en proposant, en fin d’année dernière, le projet de règlement Digital Services Act (DSA) qui :
Des premières critiques ont d’ores et déjà été émises contre ce projet, eu égard au fait que celui-ci n’a pas pour objet de modifier la responsabilité des plateformes (qui resteront, en leur qualité d’hébergeur, non responsables des contenus diffusés, sauf à ce qu’elles n’aient pas agi promptement pour le retrait des contenus signalés).
Le présent article est l’occasion de faire un point de situation :
Comme nous l’avons indiqué précédemment, les plateformes, et notamment celles opérées par les GAFA, ont un rôle désormais crucial dans la diffusion de l’information au sens large.
Ce rôle peut s’expliquer au travers de différentes causes :
Le pouvoir pris par les GAFA dans la diffusion de l’information est tel qu’il inquiète la quasi-totalité des Etats.
Ce que tout le monde prenait pour de la science-fiction (le contrôle de l’information aux humains par des robots) est désormais à portée de main, ainsi qu’en témoigne le bras de fer actuel entre Facebook et l’Australie.
L’Australie est en cours d’examen d’un projet de loi visant à contraindre les géants du numérique à rémunérer la reprise des contenus. Opposée fermement à ce projet, Facebook a rendu impossible pour les australiens de publier des liens renvoyant vers des publications relatives à des articles d’actualité.
En conséquence, des centaines de pages (n’appartenant pas nécessairement à des médias) ont été concernées par le blocage (et notamment les pages relatives à la campagne de vaccination en cours afin de la promouvoir auprès de la population et de contrer les théories complotistes anti-vaccins).
La chercheuse Camille François, référence en matière de lutte contre les fake news, précise qu’il y aurait trois vecteurs de nature à définir une campagne de désinformation :
Elle précise que c’est sur ce troisième vecteur que les plateformes hésitaient le plus à intervenir. Cette situation aurait évolué dans le cadre de l’épidémie de COVID-19, les plateformes étant, selon elle, plus agressives dans la modération des contenus et supprimant plus de contenus qu’auparavant.
Autre élément important, Camille François précise que si aucune plateforme n’est résistante à la désinformation, les fake news se diffuseraient de manière différenciée en fonction des plateformes considérées.
Ainsi, selon elle :
L’épidémie de COVID-19 aurait eu un effet positif sur la régulation des contenus de désinformation circulant sur les grandes plateformes, celles-ci :
Une première prise de conscience des plateformes est-elle intervenue ?
Il n’en demeure pas moins que, dans les faits, la régulation s’avère très difficile, eu égard au volume considérable d’informations diffusées et à la confrontation du principe de la régulation avec les valeurs philosophiques de certaines très grandes plateformes.
Les plateformes seraient confrontées à trois difficultés majeures dans le cadre de la lutte contre la désinformation.
Au regard de la quantité massive d’informations publiée et diffusée, la modération humaine est impossible. La modération passe nécessairement par des algorithmes de modération qui doivent, sur la base d’un code défini, apprendre à identifier les contenus diffusant de la désinformation.
Si la modération passe par de puissants outils informatiques, il est essentiel qu’il reste derrière tout cela, une supervision par des humains, notamment pour :
Les plateformes doivent être transparentes sur les critères de modération et de retrait des contenus.
Sur ce point, la France, à la suite des différentes suspicions d’ingérence dans le cadre de l’élection présidentielle de 2017, a pris de l’avance en adoptant, le 22 décembre 2018, la loi n° 2018-1202 contre la manipulation de l’information.
Cette loi a créé un devoir de coopération des plateformes devant mettre en place différentes mesures pour lutter contre la diffusion des fausses informations susceptibles de troubler l’ordre public, au rang desquelles figurent notamment :
Cette viralité serait due :
Quelles solutions permettraient de contrer ces deux éléments ?
Une « éducation » des utilisateurs sur les modalités de rémunération des plateformes et sur leur rôle dans la diffusion des fausses informations pourrait permettre de juguler cette viralité.
En effet, à l’exception de certaines typologies de fake news, la plupart sont aisément identifiables si l’on prête attention au contenu ou à son auteur.
Expliquer aux utilisateurs en quoi consistent les fake news et comment celles-ci sont fabriquées pourrait permettre de limiter leurs effets.
Certains auteurs ont donné la typologie suivante de la désinformation. Elle prendrait 6 formes distinctes :
Quelle est la légitimité des plateformes pour décider, sans intervention d’une autorité extérieure, que le contenu serait de nature à porter atteinte à un ordre public ou à diffuser des informations erronées pouvant parfois consister en l’expression d’une opinion de son auteur ?
L’exemple souvent donné par les différents commentateurs est, dans le contexte de crise sanitaire actuel, celui des vaccins.
Les plateformes n’auraient aucune légitimité pour déterminer l’efficacité d’un vaccin et partant décider de supprimer les contenus venant contester son efficacité ou ses effets.
Face au constat de ces trois difficultés, qu’est-ce que propose le projet règlement Digital Services Act ?
Les obligations mises à la charge des plateformes permettent-elles efficacement de lutter contre le phénomène bondissant de la désinformation ?
Le projet de règlement vise à soumettre les plateformes de toutes tailles et jouant un rôle dans la diffusion de contenus à diverses obligations.
Applicable à toutes les plateformes visées (et non seulement aux seuls GAFA), il impose néanmoins aux très grandes plateformes des obligations complémentaires de vigilance, eu égard à leur taille et poids dans la diffusion des contenus.
Le projet de règlement soumet les services considérés comme intermédiaires (services de « simple transport », services de « mise en cache », services « d’hébergement, telles que les plateformes en ligne) à des obligations de :
Ainsi, les hébergeurs devront prévoir des mécanismes de signalement des contenus illicites, faciles d’accès et d’utilisation, par voie électronique via un formulaire.
Lorsque l’hébergeur décide de modérer le contenu ou de supprimer l’accès à ce contenu, il doit informer l’auteur et lui exposer clairement les motifs ayant conduit à sa décision (faits et circonstances justifiant sa décision, moyens automatisés ayant identifié le contenu, éventuelle référence juridique (loi, contrat) justifiant le retrait, ainsi que les voies de recours qui lui sont ouvertes).
Les plateformes doivent également mettre en place un système de réclamation interne, facile d’accès et d’utilisation, permettant de « faire appel » de la décision de retrait, blocage d’accès ou suspension du compte ou service.
Des mesures destinées à renforcer la traçabilité des professionnels dans le cadre des places de marchés BtoC sont également mises à la charge des services intermédiaires.
Enfin, les plateformes affichant de la publicité en ligne devront, pour chaque publicité, préciser de manière claire et non ambigüe le caractère publicitaire de l’information présentée, la personne physique ou morale pour le compte de laquelle la publicité est affichée et toutes informations utiles expliquant les paramètres utilisés pour cibler tel ou tel utilisateur.
Concernant enfin les très grandes plateformes[3], le projet de règlement impose notamment les obligations complémentaires suivantes :
Les obligations mises à la charge des plateformes apparaissent ambitieuses mais beaucoup s’élèvent déjà sur l’inefficacité de ces obligations diverses.
Le point de cristallisation le plus important des critiques tient dans l’absence de modification du statut des plateformes, toujours considérés comme des hébergeurs, non responsables des contenus diffusés (sauf en l’absence d’action prompte une fois le contenu mis à sa connaissance).
Par ailleurs, le projet de règlement ne semble pas suffisamment appréhender :
Daniel Kretinsky, PDG d’EP Corporate Group et de Czech Media Invest[4], dans une récente tribune, demande à aller encore plus loin dans la responsabilisation des plateformes.
Constatant la perte du monopole de l’information des médias traditionnels, le PDG s’étonne de l’absence de réciprocité du régime de responsabilité applicable à la presse écrite.
Il propose de consacrer un principe de responsabilité des plateformes quant aux contenus diffusés via :
Il est certain que le projet de règlement DSA est perfectible et constitue, à tout le moins, une première étape vers une harmonisation européenne de la régulation des contenus illicites.
Le travail actuellement en cours au niveau des différents Etats membres est crucial afin que ce règlement ne soit pas dévoyé par l’effet du lobbying des parties prenantes concernées et, au contraire, soit renforcé afin de permettre la permanence de la liberté (d’expression et d’opinion), dans un environnement démocratique.
***
Fort d’une expérience dans le domaine du digital, des nouvelles technologies, du droit de la concurrence et de la régulation économique, le cabinet Haas Avocats est naturellement à votre entière écoute pour toutes problématiques que vous pourriez rencontrer.
Pour plus d’informations ou des demandes de rendez-vous, contactez-nous ici.
[1] En 2018, Facebook avait annoncé son intention de modifier son algorithme de référencement des contenus pour privilégier les contenus publiés par les « amis », au détriment de ceux mis en ligne par les médias dits traditionnels.
Facebook a aussi pris la main sur le référencement des informations diffusées via son algorithme, qui sélectionne les informations et les personnes auprès desquelles elles sont diffusées, en fonction des données personnelles des utilisateurs et de leur historique de navigation.
[2] A titre d’exemple, en 20218, Google News valorisait davantage les contenus dits originaux et ceux ayant recours à sa technologie AMP Stories (un format mis au point par Google pour diffuser des images et des vidéos plus rapidement en réduisant la durée de chargement).
[3] Plateformes ayant au moins 45 millions d’utilisateurs européens en moyenne par mois.
[4] Propriétaire de Marianne et actionnaire du journal Le Monde.