Gérard Haas et son équipe ont compilé pour vous les actualités clés afin de vous permettre de rester à jour sur les dernières tendances et évolutions des secteurs juridique et numérique !
👉 Consultez dès maintenant notre sélection :
Actualité 1 - 80 médias espagnols réclament 550 millions d’euros à Meta
Actualité 6 - Comment Google Drive peut devenir votre roue de secours en cas d’attaque
Actualité 7 - Avec Latam GPT, l’Amérique latine développe son IA éthique et inclusive
Actualité 1 - 80 médias espagnols réclament 550 millions d’euros à Meta
L’article de Siècle Digital rend compte de la plainte collective initiée par 80 médias espagnols à l’encontre de Meta, en soulignant l’accusation portée contre la plateforme d’avoir « faussé le marché publicitaire » en exploitant les données des internautes sans consentement.
Contexte
Depuis plusieurs années, les médias traditionnels européens accusent les grandes plateformes numériques (comme Google ou Meta) de capter une part disproportionnée des revenus publicitaires en tirant parti des données utilisateurs, ce qui réduirait leurs marges et mettrait en péril leur modèle économique. En Espagne, l’Association des Médias d’Information (AMI) a déjà engagé des actions juridiques contre Meta, dans la foulée de mobilisations similaires lancées en France notamment.
Résumé des faits
-
En décembre 2023, l’AMI a déposé une plainte collective contre Meta Irlande, estimant que l’entreprise a violé les obligations de consentement prévues par la législation européenne entre mai 2018 et juillet 2023.
-
L’AMI et les médias espagnols affirment que Meta a utilisé les données personnelles des utilisateurs pour proposer de la publicité ciblée sans qu’ils n’aient donné leur consentement effectif, ce qui aurait créé un avantage indu face aux organes de presse soumis à des obligations strictes de transparence.
-
Le préjudice réclamé est chiffré à 551 millions d’euros (souvent arrondi à 550 millions) par l’AMI, au titre de revenus publicitaires illégalement captés.
-
Meta conteste les accusations : selon ses avocats en Espagne, il n’y aurait « aucune preuve de dommage » et aucune violation du cadre réglementaire n’est admise de leur côté.
-
Le procès doit auditionner des témoins et des experts avant délibération, tandis que parallèlement une autre plainte portée par les radios et télévisions espagnoles réclame 160 millions d’euros pour des griefs semblables.
-
Au-delà de l’Espagne, l’affaire s’inscrit dans un mouvement européen plus large : en France, près de 200 médias ont déjà lancé une action comparable contre Meta, sur des fondements de non-respect du RGPD et des pratiques publicitaires.
Impact juridique
Cette procédure engage plusieurs enjeux légaux majeurs : si la justice espagnole reconnait que Meta a violé la réglementation européenne sur la protection des données ou le droit de la concurrence via des pratiques publicitaires trompeuses, cela pourrait ouvrir la voie à des condamnations financières substantielles et à des obligations de remédiation (modifications des pratiques de ciblage, transparence renforcée, contrôle du consentement). De plus, une décision en faveur des médias espagnols pourrait servir de précédent dans d’autres États membres de l’Union européenne, encourageant des actions similaires et renforçant l’encadrement juridique des plateformes numériques face aux enjeux de données personnelles et de concurrence déloyale.
Lien vers l’article : Siècle Digital
Actualité 2 - IA : la Californie va encadrer les entreprises de la Silicon Valley en leur imposant des obligations de transparence
L’article du Le Monde présente la promulgation d’une loi ambitieuse visant à encadrer les usages et le développement de l’intelligence artificielle en Californie, en insistant sur l’équilibre entre innovation et protection du public face aux risques liés à ces technologies.
Contexte
La régulation de l’intelligence artificielle s’impose comme un enjeu mondial majeur. Après plusieurs tentatives de législation avortées, la Californie — berceau des géants technologiques — adopte enfin un cadre légal destiné à limiter les dérives potentielles de l’IA dite « de frontière », c’est-à-dire les systèmes les plus puissants capables d’apprentissages autonomes. Cette loi intervient alors que les États-Unis cherchent à rattraper leur retard sur l’Union européenne, déjà engagée dans la mise en œuvre de l’AI Act.
Résumé des faits
-
Le 29 septembre 2025, la Californie promulgue la loi SB-53, baptisée Transparency in Frontier Artificial Intelligence Act.
-
Ce texte impose aux entreprises développant des modèles d’IA avancés de publier leurs protocoles de sécurité et d’évaluer les risques liés à leurs systèmes.
-
Les sociétés doivent notifier les incidents graves impliquant leurs IA dans un délai maximum de quinze jours.
-
La loi introduit de nouvelles garanties pour les lanceurs d’alerte, afin de faciliter la divulgation d’éventuelles pratiques à risque.
-
Elle marque un tournant dans la régulation technologique américaine, en posant des obligations concrètes de conformité et de transparence.
-
Les acteurs de la Silicon Valley, tout en saluant la clarté du cadre, craignent une charge réglementaire accrue susceptible de freiner l’innovation.
Impact juridique
Cette loi établit un cadre de conformité inédit aux États-Unis, renforçant la responsabilité des entreprises d’IA et leur devoir de vigilance. Elle pourrait servir de modèle pour d’autres États américains et inspirer de futures régulations fédérales. En imposant des obligations de transparence, de reporting et de sécurité, la Californie se positionne comme un laboratoire juridique de l’encadrement de l’intelligence artificielle, à la croisée du droit de la consommation, de la protection des données et de la responsabilité algorithmique.
Lien vers l’article : Le Monde
Actualité 3 - L’Indonésie suspend TikTok qui a refusé de fournir des données liées à des manifestations contre le gouvernement
L’article du Le Parisien rapporte la décision des autorités indonésiennes de suspendre TikTok après le refus de la plateforme de divulguer des données sur des manifestants, soulignant une tension croissante entre le contrôle gouvernemental et la protection des données.
Contexte
Dans un climat de contestation politique, l’Indonésie impose aux plateformes numériques des obligations de transparence et de coopération avec l’État, notamment en matière de données liées à la sécurité publique. Face aux mouvements de protestation contre le gouvernement, les autorités exigent l’accès aux informations de leurs utilisateurs jugés impliqués dans les manifestations, ce qui suscite des enjeux de liberté d’expression, de vie privée et de souveraineté numérique.
Résumé des faits
-
En octobre 2025, le gouvernement indonésien suspend TikTok dans tout le pays, suite à son refus de transmettre des données d’utilisateurs liées aux manifestations contre le pouvoir.
-
TikTok, contacté par les autorités, aurait été sommé de fournir des informations sur des comptes ou des utilisateurs impliqués, mais s’est opposé à cette demande en invoquant la protection de la vie privée.
-
L’Indonésie justifie cette suspension comme une mesure temporaire visant à préserver l’ordre public et à garantir que les plateformes coopèrent avec les enquêtes nationales.
-
Selon des sources locales, les manifestants utilisent TikTok pour organiser et relayer des vidéos en direct des mobilisations, ce qui inquiète les autorités quant à l’influence des réseaux sociaux sur les mouvements sociaux.
-
Des précédents de blocages ou restrictions de plateformes en Indonésie existent, notamment lors d’épisodes de troubles sociaux, ce qui illustre une politique intermittente de contrôle numérique dans le pays.
-
La décision provoque des réactions critiques de la part des défenseurs des droits numériques et des observateurs internationaux, alertant sur le risque d’entrave à la liberté d’expression.
Impact juridique
La suspension de TikTok impose un dilemme juridique entre les pouvoirs de l’État en matière de sécurité nationale et les droits fondamentaux des utilisateurs (liberté d’expression, protection des données). Si l’Indonésie revendique un cadre législatif permettant de contraindre les plateformes à coopérer, cette action pourrait être contestée au plan national ou international : elle soulève des questions sur la légitimité d’ordres de divulgation de données d’utilisateurs privés et sur l’encadrement juridique exigé pour de telles mesures. La décision peut également inciter TikTok et d’autres plateformes à redéfinir leurs pratiques de traitement des données pour mieux anticiper les demandes des États, ou à engager des recours judiciaires pour contester les obligations imposées par les gouvernements.
Lien vers l’article : Le Parisien
Actualité 4 - Intelligence artificielle : les deepfakes explosent sur les plateformes de Meta, selon un rapport
L’article de Sud Ouest met en avant un rapport du Tech Transparency Project dénonçant une forte augmentation des publicités « deepfake » sur Facebook et Instagram, pointant les failles dans la modération de Meta.
Contexte
Avec l’essor des technologies d’intelligence artificielle, la création de contenus manipulés — notamment les deepfakes — devient plus accessible et sophistiquée. Les plateformes de Meta sont sous pression pour renforcer la modération et la détection de ces contenus trompeurs, alors que leur diffusion peut influencer l’opinion publique, la sécurité des informations et la confiance des utilisateurs.
Résumé des faits
-
Le Tech Transparency Project (TTP) a identifié 63 annonceurs frauduleux ayant diffusé des publicités contenant des vidéos truquées sur les plateformes de Meta.
-
Ces annonceurs auraient dépensé au total environ 49 millions de dollars pour ces campagnes.
-
Ces publicités deepfake prétendaient, par exemple, faire dire des promesses ou des messages à des personnalités politiques qui ne correspondent pas à leur position réelle.
-
Certaines vidéos utilisaient des discours réels mais retravaillés pour modifier le message ou le contexte.
-
Une part importante de ces publicités visait les personnes âgées, avec des offres ou promesses liées à des aides gouvernementales fictives.
-
Malgré la suppression de certains comptes par Meta, beaucoup continuaient à diffuser des contenus frauduleux.
-
Meta affirme que les publicités frauduleuses sont interdites et qu’elle investit dans des systèmes de détection, mais le rapport critique une modération trop lente ou insuffisante.
Impact juridique
La diffusion de deepfakes via des publicités pose des défis juridiques en matière de fraude, de tromperie publicitaire, de diffamation et de responsabilité des plateformes. Les pouvoirs publics pourraient imposer de nouvelles obligations réglementaires à Meta pour renforcer la vérification des contenus, sanctionner les acteurs malveillants et garantir une réponse rapide aux signalements. En cas de manquement, Meta pourrait être tenue responsable devant les autorités de régulation ou les juridictions compétentes pour ne pas avoir empêché la diffusion de contenus manipulés nuisibles.
Lien vers l’article : Sud Ouest
Actualité 5 - Précision de l’Assemblée plénière de la Cour de cassation sur l’office du juge en matière de perte de chance
(Unipatis Production c/ avocat – n° 22-21.812, 27 juin 2025)
La Cour de cassation (Assemblée plénière) étend la même solution en matière contractuelle (responsabilité de l’avocat) et admet la recevabilité d’un moyen critiquant l’absence d’indemnisation d’une perte de chance, bien que la partie ait plaidé la réparation intégrale devant les juges du fond.
Contexte
À la suite d’un licenciement mal géré (clause de non-concurrence non levée), l’entreprise agit contre son avocat. La cour d’appel retient une perte de chance mais rejette l’indemnisation au motif que seule la réparation intégrale avait été sollicitée. L’Assemblée plénière harmonise la solution avec le régime délictuel et tranche la question procédurale de recevabilité.
Résumé des faits
-
Licenciement (2007) ; condamnation ultérieure de l’employeur au titre de la clause de non-concurrence ; action en responsabilité contre l’avocat (manquement d’information et de conseil).
-
La cour d’appel limite le préjudice à une perte de chance de faire un choix éclairé mais refuse d’indemniser car la demande visait l’entier préjudice.
-
L’Assemblée plénière juge le moyen recevable : contester l’absence d’indemnisation de la perte de chance n’est pas contraire à avoir soutenu la réparation intégrale en appel.
-
Règle de fond réaffirmée : si le juge constate une perte de chance, il doit l’indemniser ; il peut rechercher cette perte de chance même si la demande initiale portait sur l’entier dommage, en respectant le contradictoire.
-
Cassation partielle, renvoi devant la cour d’appel de Versailles autrement composée ; dépens et 3 000 € au titre de l’article 700 CPC à la charge de l’avocat.
-
Références : ECLI:FR:CCASS:2025:PL00683 ; Arrêt n° 683 B+R ; 27 juin 2025.
Impact juridique
En responsabilité contractuelle comme délictuelle, la perte de chance est un préjudice réparable « dépendant » de l’entier dommage : elle en constitue la part indemnisable lorsque l’entier dommage n’est pas juridiquement réparable. Le juge : (i) peut rechercher cette qualification sans dénaturer l’objet du litige, (ii) doit solliciter les observations des parties, et (iii) ne peut refuser l’indemnisation après l’avoir constatée. Sur le plan procédural, un moyen critiquant l’absence d’indemnisation de la perte de chance reste recevable même si, au fond, le demandeur plaidait la réparation intégrale.
Lien vers les décisions (Cour de cassation) :
https://www.courdecassation.fr/decision/685e2a6f19f3995126284629 — https://www.courdecassation.fr/decision/685e2a6e19f3995126284627
Actualité 6 - Comment Google Drive peut devenir votre roue de secours en cas d’attaque
L’article de Numerama expose le rôle clé de Google Drive comme solution de résilience face aux cyberattaques : il peut servir de support de sauvegarde ou de plan de continuité pour protéger ses données critiques.
Contexte
À l’heure où les ransomwares, les intrusions et les sabotages numériques se multiplient, les individus et les organisations recherchent des stratégies de défense passive. Cloud et sauvegarde hors site sont des composantes essentielles du plan de sécurité, et Google Drive, par sa fiabilité, son accessibilité et ses fonctionnalités de versioning, apparaît comme une option crédible.
Résumé des faits
-
Google Drive permet d’héberger des fichiers dans le cloud, d’y accéder depuis n’importe quel appareil et de restaurer des versions antérieures si des fichiers sont modifiés ou chiffrés.
-
En cas d’attaque (ransomware, corruption, suppression), l’utilisateur peut restaurer ses documents à un état antérieur via l’historique des versions ou la corbeille.
-
L’article recommande de structurer ses sauvegardes : distinction entre fichiers « sensibles » et « non sensibles », planification de sauvegardes régulières, et duplication hors du drive principal.
-
Il suggère d’activer la vérification en deux étapes et d’adopter des mots de passe forts pour sécuriser l’accès à Google Drive.
-
L’auteur conseille également d’utiliser des outils complémentaires (applications tierces de backup, export automatique) pour renforcer la résilience.
-
Enfin, l’article met en garde : Google Drive ne remplace pas une stratégie globale de cybersécurité ; il doit être un composant parmi d’autres.
Impact juridique
L’usage de Google Drive comme support de sauvegarde engage des obligations légales lorsqu’il traite des données personnelles — respect du RGPD notamment : choix d’un stockage sur serveur situé dans l’Union européenne, mise en place de mesures de sécurité (chiffrement, contrôle d’accès), conformité aux politique de conservation, et contractualisation avec Google sous forme de clauses de traitement de données. En cas de fuite ou de faille, la responsabilité de l’entité utilisateur pourrait être engagée, tout comme celle du prestataire si ses obligations contractuelles ou légales sont violées.
Lien vers l’article : Numerama
Actualité 7 - Avec Latam GPT, l’Amérique latine développe son IA éthique et inclusive
Le média Courrier International présente le projet Latam GPT comme une initiative régionale visant à créer une intelligence artificielle locale, respectueuse des valeurs latino-américaines, et moins dépendante des géants technologiques mondiaux.
Contexte
En Amérique latine, la dépendance aux grandes plateformes étrangères pour les technologies d’IA est perçue comme un défi à la souveraineté numérique. Parallèlement, la population appelle à des outils technologiques qui intègrent les particularités culturelles, linguistiques et sociales locales, tout en garantissant des principes d’éthique, d’équité et de transparence dans le développement de l’IA.
Résumé des faits
-
Latam GPT est un projet d’intelligence artificielle régionale lancé par des chercheurs latino-américains, en collaboration avec des institutions publiques et privées, pour créer un modèle de langage adapté aux langues, cultures et contextes de la région.
-
L’objectif est de réduire la dépendance aux modèles dominants (OpenAI, Google, etc.), tout en maîtrisant les enjeux de biais, de contrôle et de gouvernance.
-
Le projet cherche à intégrer des principes éthiques dès la conception, notamment en matière de transparence, de responsabilité, de supervision humaine et de lutte contre les discriminations.
-
Il envisage de produire des services IA accessibles à des coûts raisonnables, afin de renforcer l’inclusion numérique dans des zones marginalisées.
-
Les promoteurs veulent impliquer la société civile dans la gouvernance du projet, pour garantir que l’IA reflète les besoins et valeurs des populations locales.
-
Un défi majeur est l’accès aux données de qualité et la mobilisation de talents locaux pour former les modèles tout en évitant l’exportation des bénéfices vers l’étranger.
Impact juridique
La mise en œuvre d’une IA régionale implique des cadres de régulation nationale et régionale pour encadrer la protection des données, la responsabilité des modèles, la transparence des algorithmes et les droits des utilisateurs. Le projet Latam GPT pourrait pousser les législations latino-américaines à définir des normes d’éthique algorithmique, à instaurer des mécanismes d’audit ou de gouvernance participative, et à négocier des cadres transnationaux pour la circulation des données et la coopération en IA au sein de la région.
Lien vers l’article : Courrier International
🔁 Retrouvez-nous la semaine prochaine pour un nouvel aperçu des actualités juridique dans la domaine du numérique !
***
Le cabinet HAAS Avocats est spécialisé depuis plus de vingt-cinq ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne les acteurs du numérique dans le cadre de leurs problématiques judiciaires et extrajudiciaires relatives au droit de la protection des données. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.