L'actualité juridique numérique de la semaine – 07 juillet 2025

L'actualité juridique numérique de la semaine – 07 juillet 2025
⏱ Lecture 9 min

Gérard Haas et son équipe vous proposent leur récapitulatif hebdomadaire des dernières évolutions en matière de droit du numérique.




  1. Microsoft , Meta , Google : pourquoi la tech américaine au sommet en Bourse multiplie les licenciements
  2. « À terme, c’est une menace pour l’écosystème »: avec AI Overviews, Google bouscule comme jamais les médias
  3. AI Act : 46 grands patrons tirent la sonnette d’alarme
  4. La DGCCRF inflige à Shein une amende record de 40 millions d'euros
  5. Cookies : solutions pour les outils de mesure d’audience
  6. Géobloquer l’accès en France de messages dénigrants vaut suppression
  7. CC Signals : Creative Commons propose un cadre pour l'utilisation des contenus par les IA
  8. L’Anssi et la Cnil s’allient dans l’audit de confidentialité des modèles d’IA

Actualité 1 – Microsoft , Meta , Google : pourquoi la tech américaine au sommet en Bourse multiplie les licenciements 

Le média Les Echos explique que ces géants profitent de leur solide valorisation boursière pour rationaliser leurs coûts et rassurer les marchés, tout en ajustant leurs effectifs après la sur-recrue liée à la période du Covid. 

Contexte

Depuis 2022, les principales entreprises technologiques américaines (Meta, Amazon, Microsoft, Google) ont connu une période d’embauche massive due à la pandémie, suivie d’une phase de ralentissement économique, de taux d’intérêt élevés et de pressions inflationnistes.

Résumé des faits

Malgré cette situation, elles demeurent extrêmement rentables, avec des actions en forte hausse, notamment en raison de leur position dominante dans l’IA et la publicité en ligne.

Impact juridique

Les procédures de licenciements massifs doivent respecter le droit du travail local, notamment en Europe, ce qui implique des notifications, consultations des représentants du personnel, et potentiellement des indemnités conformément aux législations nationales.

Ces vagues de licenciements relancent le débat réglementaire sur le pouvoir des GAFAM, notamment sur leur gouvernance et leur responsabilité vis-à-vis des marchés, des actionnaires et des employés.

Lien vers l’article sur Les Echos.

Actualité 2 – « À terme, c’est une menace pour l’écosystème » : avec AI Overviews, Google bouscule comme jamais les médias

Le média Le Figaro alerte sur le fait que la fonctionnalité AI Overviews de Google, en intégrant des résumés produits par IA directement dans les résultats, constitue une menace à long terme pour l’écosystème des médias.

Contexte

Depuis mai 2024, Google a intégré AI Overviews—des synthèses automatiques créées par son IA Gemini—en haut de ses pages de recherche dans plus de 100 pays, bénéficiant déjà à plus de 1,5 milliard d’utilisateurs. Ce service, conçu pour rivaliser avec les assistants conversationnels comme ChatGPT, vise à fournir des réponses rapides sans nécessiter de clics vers les sites sources.

Résumé des faits

- Google produit un résumé IA tiré de milliers de pages web, précédant les liens classiques dans les résultats de recherche.

- Présent dans plus de 200 pays (mais pas encore en France, pour des raisons juridiques) et utilisé par plus d’1,5 milliard de personnes.

- Cette évolution modifie profondément les parcours des internautes, invitant souvent à ne pas cliquer sur les sites d'origine, augmentant ainsi les “zero-click” searches.

- Des études montrent des baisses de trafic drastiques pour les éditeurs : jusqu’à 30–66 % en fonction des sites et du support (desktop/mobile).

- Les éditeurs réagissent : blocages des crawlers, plaintes juridiques, négociations pour un juste partage des revenus.

Impact juridique

En Europe, Google suspend le déploiement en France en raison d’une incertitude juridique, notamment autour des droits voisins et du droit d’auteur . Des actions juridiques se multiplient :

- Aux États‑Unis, la plateforme Chegg a déposé plainte pour concurrence déloyale et violation antitrust liée à AI Overviews

- En Europe, des éditeurs réclament des compensations et demandent à pouvoir “opt‑out” de ce traitement sans perdre en visibilité

Cette situation met en tension les régulateurs autour des questions de propriété intellectuelle, de neutralité du référencement et de modèle économique des plateformes .

Lien vers l’article sur Le Figaro.

Actualité 3 – AI Act : 46 grands patrons tirent la sonnette d’alarme

Le média Usine Digitale relaie la mobilisation de 46 dirigeants européens appelant à un report du calendrier de mise en application de l’AI Act, en raison d’un cadre encore trop flou.

Contexte

L’AI Act est le tout premier règlement européen global sur l’intelligence artificielle, adopté en avril 2024, avec entrée en vigueur progressive. Les obligations pour les modèles d’IA à usage général comme ChatGPT devaient s’appliquer à compter du 2 août 2025, suivies des exigences pour les IA « à haut risque » en août 2026.

Résumé des faits

Dans une lettre ouverte adressée à Ursula von der Leyen, 46 patrons d’entreprises européennes, notamment Airbus, Siemens, TotalEnergies, Mistral AI, Mercedes-Benz, Carrefour, Lufthansa ou Flix, demandent un report de deux ans de l’application des principales obligations de l’AI Act.  Ils estiment que le cadre actuel est :

  * Trop flou et complexe à appliquer concrètement, faute de bonnes pratiques claires.

  * Risqué pour l’innovation européenne, en entravant la compétitivité des startups et PME.

* Leur demande vise à équilibrer sécurité réglementaire et compétitivité industrielle, en offrant un « délai de grâce » pour mieux préparer la conformité.

* La Commission maintient à ce jour les échéances : obligations pour les modèles IA généraux dès août 2025, et pour les IA à haut risque en août 2026, conformément au calendrier légal.

Impact juridique

Un report de deux ans modifierait le calendrier de conformité pour les obligations de transparence, documentation technique, évaluation des risques et gouvernance algorithmique. Cela permettrait aux entreprises de bénéficier d’un accompagnement réglementaire plus clair (une fois le code de bonnes pratiques publié) et de mieux anticiper l’adaptation de leurs processus. En cas de maintien du calendrier, les acteurs risquent des sanctions en cas de non-respect, dès l’entrée en vigueur des obligations, tout en restant incertains sur les modalités pratiques.

Lien vers l’article sur Usine Digital.

Actualité 4 – La DGCCRF inflige à Shein une amende record de 40 millions d'euros

Le média Les Echos Investir met en lumière la sanction historique prononcée contre Shein par la DGCCRF pour pratiques commerciales trompeuses et allégations environnementales non justifiées.

Contexte

Depuis octobre 2022 jusqu’à août 2023, la DGCCRF, via son Service national des enquêtes (SNE), a examiné les pratiques tarifaires et marketing de la filiale française Infinite Style E‑commerce (ISEL) sur des milliers de produits vendus sur fr.shein.com. La réglementation impose que tout rabais proposé doive se baser sur le prix le plus bas pratiqué sur les 30 jours précédents, afin d’éviter les manipulations de prix de référence.

Résumé des faits

- Shein a fait l’objet d’une procédure de transaction approuvée par la procureure de Paris, acceptant une amende de 40 M€ pour pratiques commerciales trompeuses.
- 57 % des promotions examinées ne comportaient en réalité aucune baisse de prix ; 19 % affichaient des réductions moindres que celles annoncées ; et 11 % correspondaient à des hausses de prix déguisées.
- Shein a souvent gonflé artificiellement les prix avant d’appliquer un rabais, ou omis de prendre en compte les réductions précédentes pour établir le prix de référence.
- En parallèle, la marque a aussi trompé les consommateurs sur ses allégations environnementales.
- Shein affirme avoir corrigé ces pratiques dès mars 2024, dans un délai de deux mois après en avoir été informée, et insiste pour dire que cela n’a pas affecté les prix finaux payés par les consommateurs.

Impact juridique

Sur le plan légal, cette sanction record fait valoir de manière frappante le respect de la législation française et européenne sur les pratiques promotionnelles et le marketing environnemental. La transaction validée par le parquet de Paris clôt cette procédure administrative, mais elle n’exclut pas d’éventuelles actions devant les juridictions civiles ou pénales.

En plus de cette amende, Shein fait aussi face à des enquêtes de la Commission européenne (au titre des règles de protection des consommateurs et du Digital Services Act), pouvant conduire à des sanction pouvant atteindre jusqu’à 6 % de son chiffre d’affaires mondial.

Lien vers l’article sur la source.

Actualité 5 – Cookies : solutions pour les outils de mesure d’audience

La CNIL fournit un guide pratique et détaille les solutions configurables qui permettent aux outils d’analyse d’audience d’être exemptés du consentement des internautes.

Contexte

En application de la loi Informatique et Libertés, certains cookies de mesure d’audience peuvent être dispensés de recueil du consentement, à condition d’être strictement nécessaires au fonctionnement du site et d’anonymiser les données. Pour aider les acteurs du marché, la CNIL a lancé en mars 2021 un programme de labellisation qui identifie les solutions capables d’être configurées pour entrer dans cette exemption.

Résumé des faits

* La CNIL publie une liste de solutions (ex. Piano Analytics, Matomo Analytics, Adobe Analytics, SmartProfile, etracker, etc.) dont les versions spécifiques peuvent—via une configuration appropriée—être exemptées de consentement, dès lors que l’usage reste strictement nécessaire.

* Elle met à disposition un outil d’auto‑évaluation permettant aux fournisseurs de mesurer d’audience de vérifier si leur solution, avec les bons paramètres, peut bénéficier de cette exemption.

* Les conditions principales incluent la collecte de données agrégées (pages vues, navigateur, temps de chargement, taux de rebond, actions utilisateurs, zones géographiques) et l’exclusion des traceurs cross‑site, ainsi que l’anonymisation appropriée des adresses IP.

* Pour respecter le RGPD en cas de transferts hors UE (notamment vers les États‑Unis), la CNIL recommande d’implémenter un proxy ou d’utiliser uniquement des serveurs situés dans l’EEE. 

Impact juridique

Cette initiative structurelle encadre juridiquement les outils de web analytics : seules les configurations rigoureuses permettent l’amendement à l’exemption sans recueil de consentement. Les fournisseurs sont tenus de documenter leurs paramétrages, de permettre l’opposition des internautes et d’informer sur leur politique de cookies, tout usage hors exemption engage leur responsabilité en cas de contrôle. Un usage inapproprié (traits non anonymisés, cross‐site tracking, transferts illicites) expose les responsables et sous‑traitants à des sanctions sous le RGPD et la loi Informatique et Libertés. 

Lien vers l’article sur la source.

Actualité 6 – Géobloquer l’accès en France de messages dénigrants vaut suppression

Le média Legalis analyse en détail une récente décision de la cour d’appel de Paris, considérant qu’un géoblocage de contenus illicites depuis la France équivaut à leur suppression au sens de la LCEN.

Contexte

Le litige oppose la société Eoservices, fournisseur de services en ligne, à l’hébergeur Hérétic (Signal‑arnaques.com), suite à la publication de commentaires jugés dénigrants et manifestement illicites à l’égard d’Eoservices. Le tribunal de commerce de Paris, par jugement du 21 septembre 2022, a ordonné la suppression des commentaires litigieux et condamné Hérétic à verser 25 000 € pour préjudice moral (+10 000 € au titre de l’article 700 du CPC).

Résumé des faits

* Hérétic a géobloqué l’accès en France aux commentaires retirés, tout en permettant qu’ils restent accessibles hors du territoire français.

* Eoservices a estimé que ce comportement constituait un aveu implicite du caractère illicite des propos et a alors réclamé leur suppression totale.

* Par arrêt du 13 juin 2025, la cour d’appel de Paris a jugé que le géoblocage empêchant l’accès depuis la France valait légalement suppression au regard de la LCEN, rejetant ainsi la demande de retrait complet.

* Les juges ont également précisé que certains commentaires contenant des termes comme « arnaque » sont admissibles dans le débat public, tandis que d’autres affirmations jugées injurieuses ou évoquant des infractions (« escrocs », « abus de confiance », etc.) sont constitutives de dénigrement manifestement illicite.

Impact juridique

* La décision confirme que la LCEN reconnaît le géoblocage comme une forme de suppression effective d’un contenu illicite lorsque celui-ci n’est plus accessible depuis le territoire français.

* Cet arrêt souligne la distinction entre propos admissibles (critiques qualifiées) et propos illicites (allégations graves sans base factuelle), définissant une jurisprudence sur la modération territoriale.

* En pratique, les éditeurs et hébergeurs peuvent, sous conditions, limiter territorialement l’accès à des contenus problématiques tout en respectant leurs obligations légales.

* Toutefois, cette stratégie impose une vigilance accrue : le blocage doit être complet et effectif pour répondre aux exigences de la LCEN et éviter des sanctions ou actions en justice.

Lien vers l’article sur Legalis.

Actualité 7 – CC Signals : Creative Commons propose un cadre pour l'utilisation des contenus par les IA

Le média Next expose la nouvelle initiative de Creative Commons, baptisée “CC Signals”, qui vise à permettre aux créateurs de définir explicitement comment leurs œuvres peuvent être utilisées pour entraîner des modèles d’IA.

Contexte

Les licences Creative Commons, conçues avant l’essor des modèles génératifs, ne précisaient pas les modalités d’usage des contenus par les IA. Face à l’emploi massif de contenus en libre accès (Wikipedia, images, textes, etc.) par les plateformes d’IA, la communauté créative manifeste son souci que cette exploitation ne dépérisse la logique d’ouverture et de partage. 

Résumé des faits

* Lancement des CC Signals : un « nouveau contrat social à l’ère de l’IA » permettant aux titulaires de contenus de préciser leurs conditions d’usage.

* Quatre signaux essentiels :

       - Crédit – obligation de mentionner les auteurs ou la source.

       - Contribution directe – apport financier ou en nature proportionné à l’usage.

       - Contribution à l’écosystème – soutien plus large à la communauté.

       - Ouverture – utilisation d’IA ouvertes (modèles ou code disponibles).

* Implémentation technique prévue : intégration via `robots.txt` et en-tête HTTP `Content‑Usage`.

* Phase expérimentale : cadre encore au stade de brouillon, consultation publique en cours, version alpha prévue pour novembre 2025.

* Réactions mitigées : certains reprochent à Creative Commons d’entrer dans la gestion d’usage par les géants de l’IA, ce à quoi l’association répond que ce signal vise à préserver l’espace commun ouvert. 

Impact juridique

* Les CC Signals visent à combiner cadre légal (via signalement explicite) et poids éthique dans un contexte où le droit d’auteur reste flou pour les usages IA.

* Conçus pour être interprétés par les machines, ces signaux peuvent influencer les pratiques de crawl/data mining en instituant une nouvelle forme de consentement initiée par les créateurs.

* Bien que non contraignants juridiquement dans tous les cas, ils pourraient devenir normatifs et faire jurisprudence, notamment si largement adoptés dans les standards web (IETF).

* Si le cadre trouve un écho, cela pourrait préserver le “bien commun” numérique, en plafonnant les risques d’enfermement des données derrière des paywalls ou des extractions non régulées.

Lien vers l’article sur Next.

Actualité 8 – L’Anssi et la Cnil s’allient dans l’audit de confidentialité des modèles d’IA

Le média Le Monde Informatique relate le lancement du projet "PANAME", une initiative conjointe de l’ANSSI, de la CNIL, du PEReN et du projet IPoP pour créer un outil open source d’audit de confidentialité des modèles d’intelligence artificielle.

Contexte

Le Règlement général sur la protection des données (RGPD) s’applique à de nombreux modèles d’IA entraînés sur des données personnelles, nécessitant de prouver la résistance des modèles aux attaques portant sur la confidentialité des données. Jusqu’ici, les méthodes académiques d’audit de la confidentialité sont dispersées, peu standardisées et trop complexes à déployer industriellement.

Résumé des faits

* Lancement du projet PANAME (Privacy Auditing of AI Models) : un consortium formé de la CNIL, de l’ANSSI, du PEReN et de l’IPoP, lancé le 26 juin 2025 sur 18 mois.

* Objectif : développer une bibliothèque logicielle open source permettant de réaliser de manière unifiée des tests d’évaluation technique de confidentialité sur des modèles d’IA.

* Répartition des rôles :

       - CNIL : pilotage général et cadrage juridique.

       - ANSSI : expertise en cybersécurité et modélisation des attaques.

       - PEReN : développement technique de la bibliothèque.

       - IPoP : direction scientifique du projet.

* Cibles : administrations et industriels qui testeront le prototype dans des contextes réels pour garantir sa pertinence opérationnelle.

Impact juridique

* Puisque le RGPD s’applique aux modèles IA capables de mémoriser des données personnelles, démontrer la confidentialité efficace de ces modèles est crucial pour justifier leur conformité.

* Grâce à PANAME, la CNIL vise à doter les acteurs d’un outil standardisé et accessible, facilitant la documentation d’un audit RGPD avant mise sur le marché.

* La collaboration entre régulateurs juridiques et experts techniques renforce la fiabilité du cadre et crédibilise l’outil auprès des institutions / entreprises concernées.

* Le projet pourrait inspirer la mise en place de futurs référentiels normatifs ou standards européens, en particulier dans la perspective de l’entrée en vigueur de l’AI Act.

Lien vers l’article sur Le Monde Informatique.

Rendez-vous la semaine prochaine pour une nouvelle édition de la revue du droit numérique !

***

Si vous souhaitez bénéficier d’un accompagnement personnalisé : le cabinet HAAS Avocats est spécialisé depuis plus de vingt-cinq ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne de nombreux acteurs du numérique dans le cadre de leurs problématiques judiciaires et extrajudiciaires relatives au droit de la protection des données. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.

 

 

Haas Avocats

Auteur Haas Avocats

Suivez-nous sur Linkedin