Actualités juridiques et digitales

La lutte contre les deepfakes s’organise

Rédigé par Haas Avocats | Mar 4, 2024 2:40:16 PM

Par Haas Avocats

L’explosion de l’IA nourrit l’actualité de nombreuses déviances appelant à la vigilance.

Tel est le cas des deepfake qui se multiplient aux quatre coins de la planète avec une audience fulgurante. 

Après des photographies du pape en doudoune blanche ayant fait plusieurs fois le tour de la planète c’est au tour du Président Ukrainien d’être victime de cette pratique. Le 5 janvier 2024, une vidéo publiée sur le réseau social X montrait Volodymyr Zelensky en habits traditionnels moulants, effectuant une danse devant des spectateurs hilares. L’auteur du tweet ironisait « tout se passe comme prévu #UkraineRussiaWar ». 

Utilisés ici pour de la propagande politique, là pour réaliser toutes sortes de fraudes de plus en plus sophistiquées, les deepfakes questionnent à plus d’un titre et appellent une réponse à la fois juridique et technologique.

Un constat : l’explosion des deepfakes 

Deefake : définition

Un deepfake ou hypertrucage est une technique de synthèse multimédia reposant sur l’intelligence artificielle. Plus simplement, c’est un enregistrement vidéo ou audio réalisé ou modifié grâce à l'intelligence artificielle. Le mot deepfake est une abréviation de "Deep Learning" et "Fake", qui peut être traduit par "fausse profondeur".

Cette technologie n’est pas réellement nouvelle, puisque ses premières utilisations remontent au moins à 20161, dans un projet de l’Intitute of Electrical and Electronics Engineers sur une séquence vidéo reconstituée sur la base des expressions d'un acteur enregistré en direct à l'aide d'une webcam.

Tous les secteurs concernés

Les deepfakes sont utilisés dans différents secteurs. 

Ainsi, dans le domaine artistique, l’œuvre Un’emozione per siempre 2.0 de l’article Joseph Ayerle met en scène une actrice italienne virtuelle recrée par intelligence artificielle. Il est également possible de citer l’œuvre d'art générée par l'IA, Edward de Belamny, développée par le collectif artistique français Obvious. 

De même, dans le milieu cinématographique, la technologie du deepfake est de plus en plus active. Par exemple, dans le film Indiana Jones et le Cadrant de la destinée, l’acteur principal Harrison Ford est rajeuni artificiellement en utilisant des extraits de ses anciens films. Scénaristes, acteurs ont récemment fait grève à Hollywood en raison de craintes quant au développement incontrôlé de ce type de technologie.

Bien que l'utilisation des deepfakes ait initialement été limitée aux domaines artistique et scientifique, l'émergence d'applications grand public2 permettant aux utilisateurs de maîtriser cette technique a changé la donne. Désormais, les vidéos modifiées par intelligence artificielle prolifèrent sur les réseaux sociaux. Le Forum économique mondial estime que le nombre de deepfake, publiées en ligne, augmente de 900% par an. 

Cette prolifération suscite de sérieuses préoccupations quant à leur utilisation à des fins malveillantes. 

Principaux scénarios d’utilisations malveillantes des deepfakes

Trois grands scénarios malveillants utilisant le deepfake semblent émerger : 

  • Le premier concerne l’usurpation d’identité, en utilisant les deepfakes comme levier d’ingénierie sociale. Les cybercriminels truquent les images afin de se faire passer pour des célébrités et piéger leurs victimes. Par exemple, en 2022, une fausse vidéo d'Elon Musk promettant des investissements à rendements élevés dans les crypto-monnaies est devenue virale, escroquant des investisseurs crédules.
  • Le second est relatif aux escroqueries utilisant la pornographie, les deepfakes permettent dans ce contexte de créer de fausses vidéos en accolant le visage d'une victime sur une vidéo pornographique préexistante. Les cybercriminels demandent ensuite une rançon pour ne pas divulguer la vidéo sur les réseaux sociaux.
  • Le troisième scénario envisage la fraude bancaire. Les deepfakes peuvent être utilisés pour contourner les procédures de Know Your Customer (KYC) mises en place par les institutions financières. En créant de faux visages et des identités fictives, les cybercriminels peuvent tromper les systèmes de vérification. 

Ces scénarios ne sont toutefois pas exhaustifs. Dans le champ commercial et concurrentiel, la technologie pourra être utilisée pour tromper le consommateurs sur les produits et services proposés à l’instar des dark patterns. ou encore pour décrédibiliser un concurrent 

Une réponse juridique globale

Le Code civil français, comme le Code pénal permettent de sanctionner les cyberdélinquants ayant recours au deepfake. 

Citons par exemple :

  • l’article 9 du Code civil qui consacre le droit à la vie privée. Sur ce fondement les personnes apparaissant sur des deepfakes pourraient invoquer une atteinte à leur image.
  • Ensuite, la reprise des attributs de la personnalité d’une personne sans son consentement est susceptible, sous certaines conditions, de constituer l’infraction d’atteinte volontaire à la vie privée d’autrui au sens de l’article 226-1 du Code pénal.
  • le fait de réaliser un montage en utilisant l’image d’un individu sans son consentement est réprimé par l’article 226-8 du Code pénal. 

En ce qui concerne la question de l’escroquerie, plusieurs bases légales peuvent être utiles : 

  • L’article 313-1 du Code pénal qui sanctionne le fait de tromper une personne, en usant d'une fausse qualité ou en employant des manœuvres frauduleuses afin obtenir un bien, un service ou de l'argent.
  • L’article 312-10 du Code pénal qui réprime le fait d’obtenir de l’argent en menaçant de révéler ou d'imputer des faits de nature à porter atteinte à l'honneur ou à la considération de la victime. 
  • Ou encore, l’article 312-1 du même Code qui sanctionne le fait d'obtenir par violence ou contrainte de l’argent.

Enfin, pour la fraude bancaire, diverses sanctions sont possibles : blâmes, avertissements et amendes, pouvant aller jusqu’à plusieurs millions d’euros. A ce titre, ce sont les régulateurs financiers comme l’Autorité des marchés financiers (AMF) et l’Autorité de contrôle prudentiel et de résolution (ACPR) qui veillent au respect des obligations de KYC des entités financières et qui les sanctionnent en cas de manquement. 

A cet arsenal juridique s’ajoute une réponse technique prenant différents aspects.

Les outils techniques permettant d’identifier les deepfakes 

Il existe d’ores et déjà plusieurs techniques d’identification des deepfakes

Les détecteurs passifs de Deepfakes

Un détecteur est passif quand il utilise des caractéristiques jugées comme discriminantes qui permettent de distinguer facilement les deepfakes des images originales. Par exemple, en observant que les premiers deepfakes ne clignaient pas des yeux, des chercheurs ont suggéré de calculer la fréquence des clignements. Si elle était inférieure à un certain seuil, les vidéos étaient alors identifiées comme fausses. De la même manière, mais cette fois-ci sans avoir recours à des outils, il est possible de repérer un trucage en observant la qualité de la vidéo, le détourage des visages ou la luminosité de l’image.

Les détecteurs actifs de Deepfakes

L’utilisation de détecteurs « actifs » est également envisageable. Ceux-ci permettent de protéger l’image originale avant que celle-ci ne soit modifiée. Deux grands types de techniques existes : 

  • La première repose sur l’ajout d’un filigrane, c’est-à-dire un message caché dans l’image ou la vidéo, qui contient des informations sur le contenu original du support. Dans l’hypothèse d’un deepfake, les deux informations (la vidéo ou la photo et le filigrane ne concorderons pas). C’est une sorte de certification de l’authenticité du contenu. 
  • La seconde est l’utilisation d’une « attaque adverse ». Cette technique consiste à créer une perturbation imperceptible sur une image qui poussera un modèle de deep learning à l’erreur. Ce procédé permet de perturber le modèle d’IA utilisé pour générer un deepfake. La technique de l’attaque adverse pourrait s’apparenter à la Constellation d’EURion (l’agencement de symboles que l'on trouve sur les billets de banque afin d'empêcher le faux-monnayage à l'aide d’un photocopieur).

L’industrie logicielle n’est pas restée sans solution dans la lutte contre les vidéos truquées. Plusieurs logiciels de détection sont d’ores et déjà disponible sur le marché.

L’utilisation de la BlockChain

L’utilisation de la blockchain peut être une solution intéressante pour les cas d’usages tels que l’identité numérique et les procédures de connaissance du client3 (KYC). Dans les secteurs bancaires et assurantiels, ces vérifications sont complexe avec l’utilisation croissante des deepfakes. 

La blockchain est un registre -une grande base de données- qui a la particularité d’être partagé simultanément avec tous ses utilisateurs, tous également détenteurs de ce registre, et qui ont également tous la capacité d’y inscrire des données, selon des règles spécifiques fixées par un protocole informatique sécurisé grâce à la cryptographie.

Ainsi, la blockchain est susceptible de permettre de garantir l'authenticité et la traçabilité des contenus en utilisant des fonctions de hachage pour repérer toute altération des fichiers d'origine, l’horodatage et la cryptographie. Appliquée au processus de KYC, elle permet de certifier l’identité d’une personne sans avoir à dévoiler les documents utilisés pour ce processus et à faciliter l’échange des documents KYC.

A terme, l’utilisation de la blockchain pourrait ainsi permettre de créer un système de réputation transparent et incorruptible pour lutter efficacement contre certaines fraudes liées aux Deepfakes.

 

***

Le département cyber sécurité du Cabinet Haas Avocats, Cabinet spécialisé depuis plus de 25 ans en droit des nouvelles technologies, se tient à votre disposition pour répondre à vos questions et vous assister dans le pilotage juridique de la gestion des cyber risques. Pour en savoir plus, rendez-vous ici.

_

1 « Face2Face: Real-time Face Capture and Reenactment of RGB Videos », Proc. Computer Vision and Pattern Recognition (CVPR), IEEE, 2016 (consulté le 24 février 2018).

2 A l’instar de l'application FakeApp, qui utilise TensorFlow, l’outil open source développé par Google. Ou encore, certains « filtres » sur le réseau social SnapChat.

3 Le potentiel de blockchain vis-à-vis ces problématiques avait déjà été souligné par le rapport d’information de l’Assemblée nationale du 12 décembre 2018.