Par Haas Avocats
Cette question revient régulièrement dans le débat public, notamment avec l’essor des plateformes numériques comme les GAFA, qui jouent un rôle majeur dans la diffusion d’informations. Elles sont devenues des acteurs clés dans le processus d’information, soulevant la question de leur responsabilité vis-à-vis des contenus publiés par leurs utilisateurs.
L’impact de ces plateformes est particulièrement visible sur les réseaux sociaux, où des phénomènes comme la désinformation et la diffusion de théories complotistes trouvent un terrain fertile. L’ampleur de ce phénomène prend une dimension importante, notamment en raison de l'audience élevée de ces plateformes, surtout auprès des populations jeunes, et de leur modèle économique basé sur la publicité et l'interaction avec les utilisateurs.
Le rôle des plateformes dans la diffusion de l’information
Comme nous l’avons indiqué précédemment, les plateformes, et notamment celles opérées par les GAFA, ont un rôle désormais crucial dans la diffusion de l’information au sens large.
Ce rôle peut s’expliquer au travers de différentes causes :
- les plateformes ont, au fur et à mesure de leur développement, détourné les internautes des supports traditionnels (audiovisuel, presse écrite, etc…), notamment eu égard à leur « pouvoir communautaire » : les internautes retrouvent sur ces plateformes les communautés d’intérêts, les amis qu’ils ont choisi et qui partagent leurs opinions[1];
- les plateformes ont pris le contrôle sur la mise en forme des contenus, imposant aux différents utilisateurs professionnels de se conformer à leurs critères[2];
- les plateformes disposent enfin d’un pouvoir de vie ou de mort sur la visibilité de l’information publiée. Google et le fonctionnement de son moteur de recherche impose la production d’articles sous un certain format, comportant des mots clés dans le titre, des liens dans le texte afin que les robots d’indexation placent en haut de résultat les contenus ;
- les plateformes, intervenant sur des marchés bifaces (gratuit pour l’utilisateur et payant pour les utilisateurs professionnels) ont développé des modèles économiques basés sur des rémunérations liées à la publicité. Ces modèles les conduisent à privilégier plus certains sujets à forte potentialité d’audience et non nécessairement la pertinence ou la cohérence d’une ligne éditoriale (comme c’est le cas dans les médias traditionnels).
Le pouvoir pris par les GAFA dans la diffusion de l’information est tel qu’il inquiète la quasi-totalité des Etats.
Les enjeux liés à la désinformation sur les plateformes
La chercheuse Camille François, spécialiste de la lutte contre la désinformation, distingue trois vecteurs principaux permettant de définir une campagne de désinformation :
- L'auteur de la fausse information.
- La manière dont la fausse information est diffusée, notamment grâce aux bots et autres techniques amplifiant sa propagation.
- Le contenu même de l'information diffusée.
Camille François précise que si aucune plateforme n’est résistante à la désinformation, les fake news se diffuseraient de manière différenciée en fonction des plateformes considérées.
Ainsi, selon elle :
- Facebook ou Twitter seraient très vulnérables aux campagnes de désinformation,
- tandis que des plateformes comme Wikipédia seraient mieux parées, eu égard au fait que Wikipédia serait construite sur des pratiques et un réseau de contributeurs habitués à détecter toutes sortes de théories conspirationnistes.
La difficile régulation des plateformes
Les plateformes seraient confrontées à trois difficultés majeures dans le cadre de la lutte contre la désinformation.
- La première serait en lien avec les algorithmes.
Au regard de la quantité massive d’informations publiée et diffusée, la modération humaine est impossible. La modération passe nécessairement par des algorithmes de modération qui doivent, sur la base d’un code défini, apprendre à identifier les contenus diffusant de la désinformation.
Si la modération passe par de puissants outils informatiques, il est essentiel qu’il reste derrière tout cela, une supervision par des humains, notamment pour :
- la décision de retrait des contenus et leur modération ou encore la suspension et la fermeture d’un compte ;
- la réception et la gestion des plaintes des auteurs de contenus modérés ou retirés des plateformes.
Les plateformes doivent être transparentes sur les critères de modération et de retrait des contenus.
Sur ce point, la France, à la suite des différentes suspicions d’ingérence dans le cadre de l’élection présidentielle de 2017, a pris de l’avance en adoptant, le 22 décembre 2018, la loi n° 2018-1202 contre la manipulation de l’information.
Cette loi a créé un devoir de coopération des plateformes devant mettre en place différentes mesures pour lutter contre la diffusion des fausses informations susceptibles de troubler l’ordre public, au rang desquelles figurent notamment :
- la mise en place d’un dispositif facilement accessible et visible, permettant aux internautes de signaler les fausses informations ;
- à titre de mesures complémentaires, une transparence des algorithmes des plateformes.
- La seconde difficulté tiendrait dans la responsabilité de la viralité des fausses informations.
Cette viralité serait due :
- aux conséquences des modèles économiques choisis par les grandes plateformes qui, rémunérées par les publicitaires en fonction de leurs interactions avec les utilisateurs, auraient tout intérêt à générer un maximum de clics et partant, à diffuser largement les informations ;
- au rôle joué par les utilisateurs eux-mêmes qui, par négligence ou ignorance, participent à la diffusion massive de ces fausses informations.
Quelles solutions permettraient de contrer ces deux éléments ?
Une « éducation » des utilisateurs sur les modalités de rémunération des plateformes et sur leur rôle dans la diffusion des fausses informations pourrait permettre de juguler cette viralité.
En effet, à l’exception de certaines typologies de fake news, la plupart sont aisément identifiables si l’on prête attention au contenu ou à son auteur.
Expliquer aux utilisateurs en quoi consistent les fake news et comment celles-ci sont fabriquées pourrait permettre de limiter leurs effets.
Certains auteurs ont donné la typologie suivante de la désinformation. Elle prendrait 6 formes distinctes :
- la fausse connexion, consistant en des articles d’actualité mais dont le titre n’a pas ou peu de rapport avec le contenu ;
- les contenus trompeurs contenant une information erronée mais utilisée dans un contexte correct ;
- le faux contexte, c’est-à-dire les contenus contenant une information correcte mais dans un contexte incorrect ;
- le contenu imposteur, consistant à imiter une source d’information officielle pour diffuser de fausses informations ;
- le contenu manipulé, consistant en un ensemble de techniques visant à manipuler le contenu écrit, les images, les vidéos pour tromper le public (c’est notamment le cas des « deep fake », ces vidéos dissociant l’image et le son et permettant de faire dire n’importe quoi à une personnalité publique) ;
- le contenu fabriqué, soit la création de toutes pièces d’un faux contenu (notamment sous la forme d’un site web qui, d’apparence sérieuse, publie des contenus fabriqués de toutes pièces).
- Enfin, la troisième difficulté tiendrait dans la notion de légitimité.
Quelle est la légitimité des plateformes pour décider, sans intervention d’une autorité extérieure, que le contenu serait de nature à porter atteinte à un ordre public ou à diffuser des informations erronées pouvant parfois consister en l’expression d’une opinion de son auteur ?
L’exemple souvent donné par les différents commentateurs est, dans le contexte de crise sanitaire actuel, celui des vaccins.
Les plateformes n’auraient aucune légitimité pour déterminer l’efficacité d’un vaccin et partant décider de supprimer les contenus venant contester son efficacité ou ses effets.
Les propositions du Digital Services Act et leurs limites
Le Digital Services Act (DSA), entré en vigueur récemment, vise à soumettre les plateformes de toutes tailles à de nouvelles obligations afin de lutter contre les contenus illicites. Ce règlement impose des obligations de transparence, de coopération avec les autorités nationales et de mise en place de mécanismes permettant aux utilisateurs de signaler les contenus problématiques. Les plateformes devront notamment justifier les décisions de retrait de contenus et de suspension de comptes.
Pour les plateformes de taille particulièrement grande, des obligations supplémentaires ont été mises en place, telles que l’évaluation des risques systémiques liés à la diffusion de contenus illicites, et l’obligation de mener des audits de conformité.
Malgré ces avancées, le DSA présente certaines limites. Il ne modifie pas le statut des plateformes en tant qu'hébergeurs, ce qui signifie qu’elles restent non responsables des contenus diffusés, à moins qu’elles ne prennent pas de mesures rapides après avoir été informées. De plus, le règlement ne semble pas aborder de manière suffisante le rôle central joué par les plateformes dans la diffusion des informations, ni l’impact de leurs modèles économiques sur la propagation de contenus.
***
Le DSA représente un pas en avant dans la régulation des plateformes, mais il reste des défis importants à surmonter pour garantir une véritable responsabilité des plateformes dans la diffusion de contenus. Les critiques pointent le manque de prise en compte de l’influence des plateformes sur la diffusion des informations et la nécessité de renforcer leur responsabilité vis-à-vis des contenus publiés.
***
Fort d’une expérience dans le domaine du digital, des nouvelles technologies, du droit de la concurrence et de la régulation économique, le cabinet Haas Avocats est naturellement à votre entière écoute pour toutes problématiques que vous pourriez rencontrer.
Pour plus d’informations ou des demandes de rendez-vous, contactez-nous ici.
[1] En 2018, Facebook avait annoncé son intention de modifier son algorithme de référencement des contenus pour privilégier les contenus publiés par les « amis », au détriment de ceux mis en ligne par les médias dits traditionnels.
Facebook a aussi pris la main sur le référencement des informations diffusées via son algorithme, qui sélectionne les informations et les personnes auprès desquelles elles sont diffusées, en fonction des données personnelles des utilisateurs et de leur historique de navigation.
[2] A titre d’exemple, en 20218, Google News valorisait davantage les contenus dits originaux et ceux ayant recours à sa technologie AMP Stories (un format mis au point par Google pour diffuser des images et des vidéos plus rapidement en réduisant la durée de chargement).