Contrôle d’âge en ligne : YouTube mise sur l’intelligence artificielle

Contrôle d’âge en ligne : YouTube mise sur l’intelligence artificielle
⏱ Lecture 3 min

Par Haas Avocats

La protection des mineurs face aux dangers du numérique et des réseaux sociaux est devenue une priorité sociétale et juridique. Les responsables politiques, les acteurs du web et les développeurs/start up multiplient les initiatives pour limiter l’exposition des jeunes à des contenus inadaptés.

Dans ce cadre, le 13 août 2025, YouTube a lancé aux États-Unis une phase de test de son nouvel outil d’intelligence artificielle destiné à vérifier l’âge réel des utilisateurs. Ce dernier est en effet capable d’estimer l’âge réel des utilisateurs afin de leur proposer des contenus adaptés à leur maturité et de renforcer leur protection.

Addiction, contenus violents et pornographiques : comment les États et les plateformes réagissent

Les grandes plateformes numériques (d’Instagram à TikTok) sont régulièrement critiquées pour leur incapacité à protéger les mineurs des risques en ligne : contenus violents ou pornographiques, atteintes à la santé mentale, addiction, ou encore prédation.

Face à ces préoccupations, les États multiplient les mesures comme :

  • l’Australie interdit désormais l’accès à YouTube et à plusieurs réseaux sociaux aux moins de 16 ans ;
  • la France renforce le contrôle des sites pornographiques en obligeant ces derniers à vérifier formellement l’âge de leurs visiteurs ; ou encore
  • le Royaume-Uni a adopté l’Online Safety Act.

Cette prise de conscience du législateur et ce durcissement mondial de la régulation visent à protéger davantage la jeunesse. C’est dans ce contexte que YouTube a déployé, essentiellement aux Etats-Unis un nouvel outil d’intelligence artificielle pour affiner la vérification de l’âge et offrir une expérience adaptée aux jeunes utilisateurs.

Le fonctionnement de la nouvelle IA de YouTube 

L’enjeu est majeur : près de 90 % des adolescents de 13 à 17 ans utilisent Youtube[1]. Contrairement au simple âge déclaré lors de l’inscription, l’IA analysera des indices comportementaux (historique de recherche, vidéos regardées, ancienneté du compte) pour déterminer si l’internaute est majeur ou mineur.

Dans ce cadre, en cas de minorité présumée, des restrictions automatiques auront, semble-t-il, vocation à s’appliquer et notamment les suivantes :

  • Suppression de la publicité personnalisée ;
  • Recommandations encadrées ; et
  • Rappels à faire une pause.

Pour limiter les erreurs, YouTube prévoit un second niveau de vérification en cas de qualification de minorité par l’IA :

  • Empreinte de carte bancaire ;
  • Copie de pièce d’identité ; ou encore
  • Reconnaissance biométrique faciale (il vaut mieux ne pas faire jeune !).

L’objectif affiché est clair : À défaut de vérification, les restrictions resteront appliquées par défaut. En ce sens, seuls les internautes dont la majorité est attestée auront accès aux contenus soumis à limitation d’âge, ceux jugés potentiellement inappropriés pour les plus jeunes.

Contrôle d’âge par intelligence artificielle : les apports et limites du dispositif de YouTube

YouTube affirme vouloir offrir aux mineurs une expérience en ligne plus sûre grâce à des dispositifs comme YouTube Kids, les comptes supervisés et désormais une intelligence artificielle chargée de vérifier l’âge des utilisateurs.

Si cette innovation renforce la protection annoncée, elle suscite de fortes inquiétudes de la part des utilisateurs qui y voient un prétexte à contrôler de plus en plus la navigation des internautes.

En outre, plusieurs acteurs pointent un risque d’atteinte à la liberté d’expression et à la vie privée, en raison du recours à des données sensibles telles que les justificatifs d’identité ou les données biométriques.

De plus, une erreur d’identification pourrait contraindre des adultes à fournir des preuves de majorité pour accéder à certains contenus.

En France ou en Union européenne, on pourrait s’interroger sur le déploiement d’un tel dispositif, notamment à travers sa compliance avec :

  • Le Règlement général sur la protection des données («RGPD») concernant les sujets suivants :
    • La minimisation des données[2];
    • Le traitement de données sensibles[3];
    • Sécurité des données[4],
    • La base légale du traitement[5];
    • etc
  • L’IA Act concernant la qualification de l’IA et des obligations associées de Google en tant que fournisseur d’IA. ;

Enfin, à l’instar de la situation française avec l’accès aux sites diffusant des contenus à caractère pornographique, l’efficacité du dispositif est questionnée face aux pratiques de contournement (VPN, falsification de documents), qui mettent en évidence ses limites et fragilités.

L’initiative de YouTube illustre ainsi la volonté croissante des grandes plateformes de répondre aux critiques et de mieux protéger les mineurs dans un environnement numérique de plus en plus exposé aux risques.

Si l’usage de l’intelligence artificielle ouvre des perspectives intéressantes en matière de contrôle d’âge, il soulève également des enjeux majeurs liés aux libertés fondamentales, à la vie privée et à la conformité avec les réglementations en vigueur.

L’avenir de ce dispositif dépendra autant de son efficacité technique que de sa capacité à s’inscrire dans un cadre juridique clair et accepté par l’ensemble des acteurs.

***

Le cabinet HAAS Avocats, spécialisé depuis plus de vingt-cinq ans en droit des nouvelles technologies et de la propriété intellectuelle, est à votre disposition pour vous accompagner dans vos démarches de conformité et pour répondre à toutes vos interrogations sur la régulation des plateformes numériques. Pour nous contacter, cliquez ici.

[1] selon une étude du Pew Research Center

[2] Article 5 du RGPD

[3] Article 9 du RGPD

[4] Article 32 du RGPD

[5] Article 6 du RGPD

 

Haas Avocats

Auteur Haas Avocats

Suivez-nous sur Linkedin