Meta mis en cause par l'UE pour atteinte à la santé mentale des mineurs

Meta mis en cause par l'UE pour atteinte à la santé mentale des mineurs
⏱ Lecture 3 min

Par Haas Avocats

Depuis le scandale de Cambridge Analytica, la responsabilité des réseaux sociaux est régulièrement pointée du doigt à raison de l’influence qu’ils exercent sur le comportement des utilisateurs.

A ce titre, Meta a été récemment sanctionnée pour avoir opéré de la publicité ciblée sur le fil d’actualité des utilisateurs sans leur consentement. Plus récemment, des troubles pour la santé mentale des mineurs ont été dénoncés aux Etats-Unis et en Europe.

La Commission européenne vient à son tour d’ouvrir une nouvelle enquête contre Meta et Snapchat, suite à l’entrée en vigueur récente du règlement européen sur les services numériques (Digital Services Act - DSA). Le délai de réponse pour Meta et Snapchat est fixé au 1er décembre 2023. A défaut d’offrir des garanties satisfaisantes les sociétés mises en cause encourent des sanctions financières pouvant atteindre jusqu’à 6 % de leur chiffre d’affaires mondial aux termes de l’article 74 du DSA.

En parallèle, une nouvelle plainte a été introduite aux Etats-Unis contre Meta Platforms Inc. par la population de l’Etat de Californie, et un groupe de plus de 30 États, accusant le géant des réseaux sociaux :

  • d’exploiter les données personnelles des mineurs utilisateurs d’Instagram et Facebook,
  • de diffuser des contenus nocifs conduisant à de la dépendance et à des actes compulsifs.

Ce contexte conduit à s’interroger sur les mesures mises en place à l’échelon européen pour protéger les mineurs contre les risques induits pas l’utilisation des réseaux sociaux.

La majorité numérique minimale à 15 ans en France

A en croire la plainte déposée aux Etats-Unis, Meta traiterait des données personnelles de mineurs au mépris de la loi américaine sur la protection de la vie privée des enfants en ligne dite « COPPA ». Cette loi exige pourtant l’obtention du consentement parental pour les utilisateurs d'Instagram et de Facebook âgés de moins de 13 ans.

En Europe, le Règlement général sur la protection des données (RGPD) laisse une certaine liberté aux Etats-membres pour fixer l’âge minimum pour qu’un mineur puisse consentir au traitement de ses données. Les Etats-membres ne peuvent fixer un âge inférieur à 13 ans.

La France a quant à elle fixé l’âge de la majorité numérique à 15 ans.

L’interdiction des pratiques déloyales à destination des mineurs

Meta est également accusée d’avoir trompé le public sur les risques d’addictions liés à l’utilisation de ses services numériques et la diffusion de contenus nuisibles, et d’avoir ainsi porté atteinte à l’intégrité physique et mentale des mineurs.

En France, ces faits pourraient être réprimés au titre des sanctions prévues par le code de la consommation pour les pratiques commerciales déloyales. Ce dispositif vise à interdire les pratiques exploitant la vulnérabilité de certains consommateurs, notamment en raison de leur âge.

A ce titre, l’article 28.2 du DSA est venu interdire la publicité ciblée à destination des mineurs sur les plateformes « Les fournisseurs de plateformes en ligne ne présentent pas sur leur interface de publicité qui repose sur du profilage, […] dès lors qu’ils ont connaissance avec une certitude raisonnable que le destinataire du service est un mineur. ».

Le renforcement des obligations de transparence

A l’instar du RGPD ou des dispositions issues du code de la consommation français, le DSA renforce les obligations de transparence.

Afin de garantir un environnement en ligne sûr et transparent, le Digital Services Act impose notamment de :

  • Désigner des points de contact pour les autorités nationales en cas d’injonction et les destinataires du service de plateforme afin de pouvoir communiquer directement et rapidement avec elle par voie électronique.
  • Fournir dans les conditions générales de la plateforme, dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté des informations concernant notamment les politiques, procédures, mesures et outils utilisés à des fins de modération des contenus, le règlement intérieur de leur système interne de traitement des réclamations, etc.
  • Rédiger un rapport une fois par an sur les éventuelles activités de modération des contenus qui ont eu lieu sur la plateforme.

Ce règlement vise également à renforcer la sécurité des utilisateurs en ligne, en combattant la diffusion de contenus illicites divers (racistes, pédopornographiques, vente de drogues ou contrefaçons etc.).

Dans la droite ligne des derniers règlements européens l’IA Act, attendu pour la fin d’année 2023, fera également la part belle aux obligations de transparence (compréhensibilité des algorithmes, prévention des biais).

En France, un certain nombre de dispositions spécifiques ont été adoptées et notamment :

  • Les nouvelles dispositions relatives à l’influence numérique et aux obligations de transparence des influenceurs (Loi Influenceurs du 9 juin 2023),
  • Ou encore, le renforcement des sanctions relatives à la diffusion de fausses informations lors des périodes électorales au titre de la Loi Fake News du 22 décembre 2018.

***

Le cabinet HAAS Avocats est spécialisé depuis plus de vingt-cinq ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne de nombreux acteurs du numérique dans la règlementation applicable aux plateformes et à la protection des données. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.

Haas Avocats

Auteur Haas Avocats

Suivez-nous sur Linkedin