Par Haas Avocats
Cette question revient régulièrement dans le débat public, notamment avec l’essor des plateformes numériques comme les GAFA, qui jouent un rôle majeur dans la diffusion d’informations. Elles sont devenues des acteurs clés dans le processus d’information, soulevant la question de leur responsabilité vis-à-vis des contenus publiés par leurs utilisateurs.
L’impact de ces plateformes est particulièrement visible sur les réseaux sociaux, où des phénomènes comme la désinformation et la diffusion de théories complotistes trouvent un terrain fertile. L’ampleur de ce phénomène prend une dimension importante, notamment en raison de l'audience élevée de ces plateformes, surtout auprès des populations jeunes, et de leur modèle économique basé sur la publicité et l'interaction avec les utilisateurs.
Comme nous l’avons indiqué précédemment, les plateformes, et notamment celles opérées par les GAFA, ont un rôle désormais crucial dans la diffusion de l’information au sens large.
Ce rôle peut s’expliquer au travers de différentes causes :
Le pouvoir pris par les GAFA dans la diffusion de l’information est tel qu’il inquiète la quasi-totalité des Etats.
La chercheuse Camille François, spécialiste de la lutte contre la désinformation, distingue trois vecteurs principaux permettant de définir une campagne de désinformation :
Camille François précise que si aucune plateforme n’est résistante à la désinformation, les fake news se diffuseraient de manière différenciée en fonction des plateformes considérées.
Ainsi, selon elle :
Les plateformes seraient confrontées à trois difficultés majeures dans le cadre de la lutte contre la désinformation.
Au regard de la quantité massive d’informations publiée et diffusée, la modération humaine est impossible. La modération passe nécessairement par des algorithmes de modération qui doivent, sur la base d’un code défini, apprendre à identifier les contenus diffusant de la désinformation.
Si la modération passe par de puissants outils informatiques, il est essentiel qu’il reste derrière tout cela, une supervision par des humains, notamment pour :
Les plateformes doivent être transparentes sur les critères de modération et de retrait des contenus.
Sur ce point, la France, à la suite des différentes suspicions d’ingérence dans le cadre de l’élection présidentielle de 2017, a pris de l’avance en adoptant, le 22 décembre 2018, la loi n° 2018-1202 contre la manipulation de l’information.
Cette loi a créé un devoir de coopération des plateformes devant mettre en place différentes mesures pour lutter contre la diffusion des fausses informations susceptibles de troubler l’ordre public, au rang desquelles figurent notamment :
Cette viralité serait due :
Quelles solutions permettraient de contrer ces deux éléments ?
Une « éducation » des utilisateurs sur les modalités de rémunération des plateformes et sur leur rôle dans la diffusion des fausses informations pourrait permettre de juguler cette viralité.
En effet, à l’exception de certaines typologies de fake news, la plupart sont aisément identifiables si l’on prête attention au contenu ou à son auteur.
Expliquer aux utilisateurs en quoi consistent les fake news et comment celles-ci sont fabriquées pourrait permettre de limiter leurs effets.
Certains auteurs ont donné la typologie suivante de la désinformation. Elle prendrait 6 formes distinctes :
Quelle est la légitimité des plateformes pour décider, sans intervention d’une autorité extérieure, que le contenu serait de nature à porter atteinte à un ordre public ou à diffuser des informations erronées pouvant parfois consister en l’expression d’une opinion de son auteur ?
L’exemple souvent donné par les différents commentateurs est, dans le contexte de crise sanitaire actuel, celui des vaccins.
Les plateformes n’auraient aucune légitimité pour déterminer l’efficacité d’un vaccin et partant décider de supprimer les contenus venant contester son efficacité ou ses effets.
Le Digital Services Act (DSA), entré en vigueur récemment, vise à soumettre les plateformes de toutes tailles à de nouvelles obligations afin de lutter contre les contenus illicites. Ce règlement impose des obligations de transparence, de coopération avec les autorités nationales et de mise en place de mécanismes permettant aux utilisateurs de signaler les contenus problématiques. Les plateformes devront notamment justifier les décisions de retrait de contenus et de suspension de comptes.
Pour les plateformes de taille particulièrement grande, des obligations supplémentaires ont été mises en place, telles que l’évaluation des risques systémiques liés à la diffusion de contenus illicites, et l’obligation de mener des audits de conformité.
Malgré ces avancées, le DSA présente certaines limites. Il ne modifie pas le statut des plateformes en tant qu'hébergeurs, ce qui signifie qu’elles restent non responsables des contenus diffusés, à moins qu’elles ne prennent pas de mesures rapides après avoir été informées. De plus, le règlement ne semble pas aborder de manière suffisante le rôle central joué par les plateformes dans la diffusion des informations, ni l’impact de leurs modèles économiques sur la propagation de contenus.
***
Le DSA représente un pas en avant dans la régulation des plateformes, mais il reste des défis importants à surmonter pour garantir une véritable responsabilité des plateformes dans la diffusion de contenus. Les critiques pointent le manque de prise en compte de l’influence des plateformes sur la diffusion des informations et la nécessité de renforcer leur responsabilité vis-à-vis des contenus publiés.
***
Fort d’une expérience dans le domaine du digital, des nouvelles technologies, du droit de la concurrence et de la régulation économique, le cabinet Haas Avocats est naturellement à votre entière écoute pour toutes problématiques que vous pourriez rencontrer.
Pour plus d’informations ou des demandes de rendez-vous, contactez-nous ici.
[1] En 2018, Facebook avait annoncé son intention de modifier son algorithme de référencement des contenus pour privilégier les contenus publiés par les « amis », au détriment de ceux mis en ligne par les médias dits traditionnels.
Facebook a aussi pris la main sur le référencement des informations diffusées via son algorithme, qui sélectionne les informations et les personnes auprès desquelles elles sont diffusées, en fonction des données personnelles des utilisateurs et de leur historique de navigation.
[2] A titre d’exemple, en 20218, Google News valorisait davantage les contenus dits originaux et ceux ayant recours à sa technologie AMP Stories (un format mis au point par Google pour diffuser des images et des vidéos plus rapidement en réduisant la durée de chargement).