Actualités juridiques et digitales

Les plateformes sont-elles responsables des fake-news diffusées ?

Rédigé par Gérard HAAS | Feb 24, 2021 10:19:55 AM

Par Gérard Haas et Eve Renaud-Chouraqui

Les plateformes doivent-elles être considérées comme responsables des contenus diffusés par leurs utilisateurs ?

Cette question n’est pas nouvelle et revient régulièrement dans le débat public. Elle a été relancée par l’épidémie de COVID-19 qui a démontré que les plateformes étaient un lieu de diffusion de désinformation de toutes sortes.

Le contexte de pandémie mondiale et de crise économique a eu pour effet de faire ressortir les comportements les plus sombres : défiance à l’égard des gouvernements, des médecins, des laboratoires, des médias, théories du complots, idéologies extrémistes en tous genres.

 

L’impact négatif de ces comportements prend une ampleur particulière, au regard de l’audience exacerbée des réseaux sociaux opérés notamment par les GAFA et de leur forte utilisation par les populations les plus jeunes.

L’importance de ce phénomène est telle que certaines plateformes ont, en coordination avec certains gouvernements, accentué les mesures de modération pour endiguer la diffusion virale des fake news liées, soit à la gravité de l’épidémie, soit à sa réalité, soit encore aux vaccins et autres mesures mises en place pour endiguer la maladie.

La Commission européenne a également relancé ce débat en proposant, en fin d’année dernière, le projet de règlement Digital Services Act (DSA) qui :

  • a pour objectif de protéger les consommateurs des contenus considérés comme illicites et,
  • impose aux plateformes des obligations à géométrie variable en fonction de leur rôle et de leur taille.

Des premières critiques ont d’ores et déjà été émises contre ce projet, eu égard au fait que celui-ci n’a pas pour objet de modifier la responsabilité des plateformes (qui resteront, en leur qualité d’hébergeur, non responsables des contenus diffusés, sauf à ce qu’elles n’aient pas agi promptement pour le retrait des contenus signalés).

Le présent article est l’occasion de faire un point de situation :

  • quel est le rôle des plateformes dans la diffusion de l’information ?
  • quels sont les enjeux liés à la désinformation sur les plateformes ?
  • à quelles difficultés celles-ci sont éventuellement confrontées ?
  • quelles sont les armes proposées par la Commission européenne ?

1. Le rôle des plateformes dans la diffusion de l’information

Comme nous l’avons indiqué précédemment, les plateformes, et notamment celles opérées par les GAFA, ont un rôle désormais crucial dans la diffusion de l’information au sens large.

Ce rôle peut s’expliquer au travers de différentes causes :

  • les plateformes ont, au fur et à mesure de leur développement, détourné les internautes des supports traditionnels (audiovisuel, presse écrite, etc…), notamment eu égard à leur « pouvoir communautaire » : les internautes retrouvent sur ces plateformes les communautés d’intérêts, les amis qu’ils ont choisi et qui partagent leurs opinions[1];
  • les plateformes ont pris le contrôle sur la mise en forme des contenus, imposant aux différents utilisateurs professionnels de se conformer à leurs critères[2];
  • les plateformes disposent enfin d’un pouvoir de vie ou de mort sur la visibilité de l’information publiée. Google et le fonctionnement de son moteur de recherche impose la production d’articles sous un certain format, comportant des mots clés dans le titre, des liens dans le texte afin que les robots d’indexation placent en haut de résultat les contenus ;
  • les plateformes, intervenant sur des marchés bifaces (gratuit pour l’utilisateur et payant pour les utilisateurs professionnels) ont développé des modèles économiques basés sur des rémunérations liées à la publicité. Ces modèles les conduisent à privilégier plus certains sujets à forte potentialité d’audience et non nécessairement la pertinence ou la cohérence d’une ligne éditoriale (comme c’est le cas dans les médias traditionnels).

Le pouvoir pris par les GAFA dans la diffusion de l’information est tel qu’il inquiète la quasi-totalité des Etats.

             

Ce que tout le monde prenait pour de la science-fiction (le contrôle de l’information aux humains par des robots) est désormais à portée de main, ainsi qu’en témoigne le bras de fer actuel entre Facebook et l’Australie.

L’Australie est en cours d’examen d’un projet de loi visant à contraindre les géants du numérique à rémunérer la reprise des contenus. Opposée fermement à ce projet, Facebook a rendu impossible pour les australiens de publier des liens renvoyant vers des publications relatives à des articles d’actualité.

En conséquence, des centaines de pages (n’appartenant pas nécessairement à des médias) ont été concernées par le blocage (et notamment les pages relatives à la campagne de vaccination en cours afin de la promouvoir auprès de la population et de contrer les théories complotistes anti-vaccins).

2. Les enjeux liés à la désinformation sur les plateformes

La chercheuse Camille François, référence en matière de lutte contre les fake news, précise qu’il y aurait trois vecteurs de nature à définir une campagne de désinformation :

  • le premier est lié à l’auteur de la fake news;
  • le second est lié à la façon dont la fake news est diffusée (et notamment toutes les techniques visant à amplifier et coordonner la diffusion d’une fausse information, via l’utilisation des bots) ;
  • le troisième est lié au contenu même de l’information diffusée.

Elle précise que c’est sur ce troisième vecteur que les plateformes hésitaient le plus à intervenir. Cette situation aurait évolué dans le cadre de l’épidémie de COVID-19, les plateformes étant, selon elle, plus agressives dans la modération des contenus et supprimant plus de contenus qu’auparavant.

Autre élément important, Camille François précise que si aucune plateforme n’est résistante à la désinformation, les fake news se diffuseraient de manière différenciée en fonction des plateformes considérées.

Ainsi, selon elle :

  • Facebook ou Twitter seraient très vulnérables aux campagnes de désinformation,
  • tandis que des plateformes comme Wikipédia seraient mieux parées, eu égard au fait que Wikipédia serait construite sur des pratiques et un réseau de contributeurs habitués à détecter toutes sortes de théories conspirationnistes.

L’épidémie de COVID-19 aurait eu un effet positif sur la régulation des contenus de désinformation circulant sur les grandes plateformes, celles-ci :

  • ayant pu disposer d’une période d’expérimentation longue et à l’échelle mondiale et,
  • auraient pu renforcer la modération algorithmique, jusqu’alors peu efficace.

Une première prise de conscience des plateformes est-elle intervenue ?

Il n’en demeure pas moins que, dans les faits, la régulation s’avère très difficile, eu égard au volume considérable d’informations diffusées et à la confrontation du principe de la régulation avec les valeurs philosophiques de certaines très grandes plateformes.

3. La difficile régulation des plateformes

Les plateformes seraient confrontées à trois difficultés majeures dans le cadre de la lutte contre la désinformation.

  • La première serait en lien avec les algorithmes.

Au regard de la quantité massive d’informations publiée et diffusée, la modération humaine est impossible. La modération passe nécessairement par des algorithmes de modération qui doivent, sur la base d’un code défini, apprendre à identifier les contenus diffusant de la désinformation.

Si la modération passe par de puissants outils informatiques, il est essentiel qu’il reste derrière tout cela, une supervision par des humains, notamment pour :

  • la décision de retrait des contenus et leur modération ou encore la suspension et la fermeture d’un compte ;
  • la réception et la gestion des plaintes des auteurs de contenus modérés ou retirés des plateformes.

Les plateformes doivent être transparentes sur les critères de modération et de retrait des contenus.

Sur ce point, la France, à la suite des différentes suspicions d’ingérence dans le cadre de l’élection présidentielle de 2017, a pris de l’avance en adoptant, le 22 décembre 2018, la loi n° 2018-1202 contre la manipulation de l’information.

Cette loi a créé un devoir de coopération des plateformes devant mettre en place différentes mesures pour lutter contre la diffusion des fausses informations susceptibles de troubler l’ordre public, au rang desquelles figurent notamment :

  • la mise en place d’un dispositif facilement accessible et visible, permettant aux internautes de signaler les fausses informations ;
  • à titre de mesures complémentaires, une transparence des algorithmes des plateformes.
  • La seconde difficulté tiendrait dans la responsabilité de la viralité des fausses informations.

Cette viralité serait due :

  • aux conséquences des modèles économiques choisis par les grandes plateformes qui, rémunérées par les publicitaires en fonction de leurs interactions avec les utilisateurs, auraient tout intérêt à générer un maximum de clics et partant, à diffuser largement les informations ;
  • au rôle joué par les utilisateurs eux-mêmes qui, par négligence ou ignorance, participent à la diffusion massive de ces fausses informations.

Quelles solutions permettraient de contrer ces deux éléments ?

Une « éducation » des utilisateurs sur les modalités de rémunération des plateformes et sur leur rôle dans la diffusion des fausses informations pourrait permettre de juguler cette viralité.

En effet, à l’exception de certaines typologies de fake news, la plupart sont aisément identifiables si l’on prête attention au contenu ou à son auteur.

Expliquer aux utilisateurs en quoi consistent les fake news et comment celles-ci sont fabriquées pourrait permettre de limiter leurs effets.

Certains auteurs ont donné la typologie suivante de la désinformation. Elle prendrait 6 formes distinctes :

  • la fausse connexion, consistant en des articles d’actualité mais dont le titre n’a pas ou peu de rapport avec le contenu ;
  • les contenus trompeurscontenant une information erronée mais utilisée dans un contexte correct ;
  • le faux contexte, c’est-à-dire les contenus contenant une information correcte mais dans un contexte incorrect ;
  • le contenu imposteur, consistant à imiter une source d’information officielle pour diffuser de fausses informations ;
  • le contenu manipulé, consistant en un ensemble de techniques visant à manipuler le contenu écrit, les images, les vidéos pour tromper le public (c’est notamment le cas des « deep fake », ces vidéos dissociant l’image et le son et permettant de faire dire n’importe quoi à une personnalité publique) ;
  • le contenu fabriqué, soit la création de toutes pièces d’un faux contenu (notamment sous la forme d’un site web qui, d’apparence sérieuse, publie des contenus fabriqués de toutes pièces).

  • Enfin, la troisième difficulté tiendrait dans la notion de légitimité.

Quelle est la légitimité des plateformes pour décider, sans intervention d’une autorité extérieure, que le contenu serait de nature à porter atteinte à un ordre public ou à diffuser des informations erronées pouvant parfois consister en l’expression d’une opinion de son auteur ?

L’exemple souvent donné par les différents commentateurs est, dans le contexte de crise sanitaire actuel, celui des vaccins.

Les plateformes n’auraient aucune légitimité pour déterminer l’efficacité d’un vaccin et partant décider de supprimer les contenus venant contester son efficacité ou ses effets.

Face au constat de ces trois difficultés, qu’est-ce que propose le projet règlement Digital Services Act ?

Les obligations mises à la charge des plateformes permettent-elles efficacement de lutter contre le phénomène bondissant de la désinformation ?

4. Les propositions du Digital Services Act et leurs limites

Le projet de règlement vise à soumettre les plateformes de toutes tailles et jouant un rôle dans la diffusion de contenus à diverses obligations.

Applicable à toutes les plateformes visées (et non seulement aux seuls GAFA), il impose néanmoins aux très grandes plateformes des obligations complémentaires de vigilance, eu égard à leur taille et poids dans la diffusion des contenus.

Le projet de règlement soumet les services considérés comme intermédiaires (services de « simple transport », services de « mise en cache », services « d’hébergement, telles que les plateformes en ligne) à des obligations de :

  • communication d’informations sur la transparence;
  • adoption des conditions d’utilisation respectant les droits fondamentaux des utilisateurs;
  • coopération avec les autorités nationales sur injonction;
  • notification et action sur les contenus illicites;
  • mise en place d’un mécanisme de réclamation et de recours.

Ainsi, les hébergeurs devront prévoir des mécanismes de signalement des contenus illicites, faciles d’accès et d’utilisation, par voie électronique via un formulaire.

Lorsque l’hébergeur décide de modérer le contenu ou de supprimer l’accès à ce contenu, il doit informer l’auteur et lui exposer clairement les motifs ayant conduit à sa décision (faits et circonstances justifiant sa décision, moyens automatisés ayant identifié le contenu, éventuelle référence juridique (loi, contrat) justifiant le retrait, ainsi que les voies de recours qui lui sont ouvertes).

Les plateformes doivent également mettre en place un système de réclamation interne, facile d’accès et d’utilisation, permettant de « faire appel » de la décision de retrait, blocage d’accès ou suspension du compte ou service.

Des mesures destinées à renforcer la traçabilité des professionnels dans le cadre des places de marchés BtoC sont également mises à la charge des services intermédiaires.

Enfin, les plateformes affichant de la publicité en ligne devront, pour chaque publicité, préciser de manière claire et non ambigüe le caractère publicitaire de l’information présentée, la personne physique ou morale pour le compte de laquelle la publicité est affichée et toutes informations utiles expliquant les paramètres utilisés pour cibler tel ou tel utilisateur.

Concernant enfin les très grandes plateformes[3], le projet de règlement impose notamment les obligations complémentaires suivantes :

  • recenser, analyser et évaluer chaque année tout risque systémique important trouvant son origine dans ses services et notamment en relation avec :
    • la diffusion de contenus illicites ;
    • tout effet négatif pour le droit au respect de la vie privée et familiale, la liberté d’expression et d’information et l’interdiction de la discrimination, les droits de l’enfant ;
    • la manipulation intentionnelle de leurs services par des faux utilisateurs ou des bots avec un effet négatif avéré ou prévisible sur la santé publique, les mineurs, le discours civique ou un effet quelconque sur les processus électoraux ou la sécurité publique.
  • faire l’objet d’audits à leurs propres frais, une fois par an a minima, pour vérifier la conformité à ces obligations et codes de conduite;
  • dévoiler, pour les plateformes utilisant des systèmes de recommandations, les principaux paramètres de ces systèmes dans leurs conditions générales.

Les obligations mises à la charge des plateformes apparaissent ambitieuses mais beaucoup s’élèvent déjà sur l’inefficacité de ces obligations diverses.

Le point de cristallisation le plus important des critiques tient dans l’absence de modification du statut des plateformes, toujours considérés comme des hébergeurs, non responsables des contenus diffusés (sauf en l’absence d’action prompte une fois le contenu mis à sa connaissance).

Par ailleurs, le projet de règlement ne semble pas suffisamment appréhender :

  • le rôle central joué par les plateformes dans la diffusion des contenus, notamment des contenus illicites ;
  • en lien avec leur modèle économique qui vise à favoriser le clic des contenus susceptibles d’avoir la plus forte audience.

Daniel Kretinsky, PDG d’EP Corporate Group et de Czech Media Invest[4], dans une récente tribune, demande à aller encore plus loin dans la responsabilisation des plateformes.

Constatant la perte du monopole de l’information des médias traditionnels, le PDG s’étonne de l’absence de réciprocité du régime de responsabilité applicable à la presse écrite.

Il propose de consacrer un principe de responsabilité des plateformes quant aux contenus diffusés via :

  • une identification certaine des contributeurs (volet sur lequel le projet de règlement DSA n’apporte effectivement aucune avancée), afin de pouvoir les poursuivre au civil et au pénal ;
  • différents niveaux de contrôle en fonction du seuil d’audience:
  • sous un seuil de 50.000 à 100.000 followers, la mise en place d’un contrôle automatisé avec une possibilité de recours devant une autorité indépendante ;
  • au –delà, une responsabilité pleine et entière, identique à celle des médias traditionnels.

Il est certain que le projet de règlement DSA est perfectible et constitue, à tout le moins, une première étape vers une harmonisation européenne de la régulation des contenus illicites.

Le travail actuellement en cours au niveau des différents Etats membres est crucial afin que ce règlement ne soit pas dévoyé par l’effet du lobbying des parties prenantes concernées et, au contraire, soit renforcé afin de permettre la permanence de la liberté (d’expression et d’opinion), dans un environnement démocratique.      

***

Fort d’une expérience dans le domaine du digital, des nouvelles technologies, du droit de la concurrence et de la régulation économique, le cabinet Haas Avocats est naturellement à votre entière écoute pour toutes problématiques que vous pourriez rencontrer.

Pour plus d’informations ou des demandes de rendez-vous, contactez-nous ici.

 

[1] En 2018, Facebook avait annoncé son intention de modifier son algorithme de référencement des contenus pour privilégier les contenus publiés par les « amis », au détriment de ceux mis en ligne par les médias dits traditionnels.

Facebook a aussi pris la main sur le référencement des informations diffusées via son algorithme, qui sélectionne les informations et les personnes auprès desquelles elles sont diffusées, en fonction des données personnelles des utilisateurs et de leur historique de navigation.

[2] A titre d’exemple, en 20218, Google News valorisait davantage les contenus dits originaux et ceux ayant recours à sa technologie AMP Stories (un format mis au point par Google pour diffuser des images et des vidéos plus rapidement en réduisant la durée de chargement).

[3] Plateformes ayant au moins 45 millions d’utilisateurs européens en moyenne par mois.

[4] Propriétaire de Marianne et actionnaire du journal Le Monde.