Gérard Haas et son équipe vous proposent leur récapitulatif hebdomadaire des dernières évolutions en matière de droit du numérique.
👉 À consulter ici :
Le Figaro traite le sujet en analysant comment plusieurs grandes entreprises, dont des groupes français, reviennent sur les jours de télétravail instaurés après la pandémie, mettant en avant les limites d’une utilisation excessive du travail à distance.
Contexte
Durant la pandémie de Covid, le télétravail est devenu la norme pour de nombreux secteurs. À la sortie de la crise sanitaire, les entreprises ont introduit un modèle hybride : typiquement deux à trois jours de télétravail par semaine ﹣ une forme de statu quo largement acceptée par les employés.
Résumé des faits
Plusieurs entreprises françaises, telles que Société Générale, Free (Iliad) et Stellantis, ont annoncé un durcissement des règles télétravail en réduisant le nombre de jours autorisés ﹣ suscitant la réaction des salariés. Évolution parallèle chez des géants américains comme Amazon, Tesla ou JPMorgan Chase qui exigent un retour plus massif au bureau, certains allant jusqu’à cinq jours de présence. L’article pointe plusieurs limites d’un télétravail trop généralisé : baisse de la créativité, manque de lien social, motivation parfois diminuée, convergence vers des habitudes jugées contre-productives.
Impact juridique
- Les entreprises doivent réviser leurs accords d’entreprise ou politiques internes sur le télétravail, notamment lorsque ceux-ci étaient encadrés par des accords collectifs post-Covid.
- Toute modification doit respecter les dispositions du Code du travail, notamment concernant les conditions de travail, la charge, le droit à la déconnexion et l’égalité de traitement.
- Les salariés peuvent contester ces changements si les nouvelles règles apparaissent comme une régression substantielle sans justification objective ni négociation préalable.
- En cas de contestation, des procédures devant les instances représentatives du personnel (CSE) ou les tribunaux pourraient être engagées, surtout si l’initiative entraîne un préjudice (motivation, temps de transport accru, etc.).
Lien vers l’article sur Le Figaro.
Le média Les Échos traite le sujet en exposant les préoccupations de l’Arcep face aux risques que fait peser l’IA générative sur l’équilibre du marché numérique et sur la neutralité du Net, tout en alertant sur la répétition des erreurs passées face aux géants américains du numérique.
Contexte
L’IA générative prend une place croissante dans les usages numériques, avec des effets économiques et technologiques encore peu encadrés. L’Arcep (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse) s’inquiète d’un déséquilibre croissant sur le marché des télécoms, semblable à celui constaté lors de l’ascension des GAFAM dans le cloud ou les services web.
Résumé des faits
- L’Arcep rejoint les institutions européennes qui appellent à une régulation plus stricte des grands acteurs de l’IA comme OpenAI, Google, Meta, Anthropic ou Mistral.
- Laure de La Raudière, présidente de l’Arcep, alerte contre la concentration de pouvoir entre les mains de quelques acteurs américains, comme cela s’est produit pour le cloud.
- L’IA générative introduit une « nouvelle couche algorithmique » qui pourrait modifier en profondeur la manière dont les internautes accèdent à l’information, selon Grégoire Desmarest (Arcep).
- L’Arcep veut garantir la liberté de choix des utilisateurs finaux, notamment sur les services cloud, et empêcher les pratiques discriminatoires dans l’accès aux réseaux.
- L’Arcep met en garde contre des usages de l’IA qui ne respecteraient pas les principes de neutralité du Net, comme une sélection de contenus influencée par les outils d’IA.
- Des tensions économiques émergent entre les géants du numérique et les fournisseurs d’infrastructure (bande passante), renforcées par le poids croissant de l’IA dans le trafic Internet.
- L’Autorité souhaite que ces enjeux soient mieux pris en compte dans les politiques de régulation à venir, notamment dans le cadre de la loi européenne sur les services numériques (DSA).
Impact juridique
- L’Arcep invite la Commission européenne à s’emparer du sujet et à introduire des règles spécifiques concernant la gestion du trafic lié à l’IA générative.
- La régulation devra s'assurer que les principes de **neutralité du Net** sont respectés : pas de filtrage ni de hiérarchisation arbitraire des contenus produits ou diffusés par des IA.
- Des obligations de transparence et d’équité pourraient émerger pour les fournisseurs d’IA comme pour les opérateurs télécoms.
- L’évolution du cadre juridique autour du DSA et du DMA (Digital Markets Act) devra intégrer ces préoccupations pour éviter une concentration de marché contraire à l’intérêt général.
Lien vers l’article sur Les Echos. (Abonnement requis)
Le média Next explique que le New York Times a obtenu l’autorisation judiciaire d’analyser les logs effacés de ChatGPT pour renforcer son action en justice contre OpenAI.
Contexte
Cette décision intervient dans le cadre du procès engagé par le New York Times en décembre 2023 pour violation de droits d’auteur. Le journal accuse OpenAI d’utiliser massivement ses contenus, notamment pour entraîner ChatGPT et Bing Chat, sans autorisation ni compensation.
Résumé des faits
- Le tribunal a exigé la conservation des logs habituellement supprimés, incluant les données effacées pour respecter la vie privée ou pour donner suite à une requête utilisateur.
- OpenAI critique cette obligation, arguant que cela viole ses engagements en matière de confidentialité envers les utilisateurs.
- Le New York Times souhaite explorer ces logs afin d’identifier des exemples concrets où ChatGPT aurait reproduit ou distribué des contenus protégés, démontrant ainsi une violation du copyright.
- L’accès aux logs sera encadré : les données resteront sur les serveurs d’OpenAI, seront anonymisées, et le journal pourra interroger certains mots-clés ou éléments spécifiques via un processus convenu entre les deux parties.
- La plainte vise à montrer que les pratiques d’OpenAI constituent une « concurrence déloyale », en puisant librement dans les contenus protégés du New York Times pour entraîner des modèles générant des textes concurrents.
Impact juridique
- La décision de conserver et d’analyser les logs supprimés pourrait établir un précédent sur la capacité des éditeurs à accéder à des données internes des fournisseurs d’IA en justice pour soutenir les plaintes pour violation de droits d’auteur.
- Les enjeux concernent l’équilibre entre protection de la vie privée des utilisateurs et transparence nécessaire à l’enquête judiciaire.
- Si des extraits protégés sont retrouvés dans les logs, cela pourrait affaiblir la défense d’OpenAI fondée sur le « fair use » (usage équitable) et renforcer la position du New York Times sur la concurrence déloyale.
- En outre, cela pose la question de la gestion des logs supprimés dans les systèmes d’IA : jusqu’où peut aller le devoir de conservation sans compromettre la confidentialité des utilisateurs ?
Le média BFMTV explique que des chercheurs intègrent subtilement des instructions favorables dans leurs articles scientifiques pour induire des retours positifs de la part des systèmes d’intelligence artificielle qui relisent ces documents.
Contexte
Avec l’essor des prépublications sur des plateformes comme arXiv, l’IA générative (ChatGPT & co.) est de plus en plus utilisée pour générer des synthèses ou critiques des articles scientifiques. Dans ce contexte, certains chercheurs cherchent à s’assurer une image favorable en dissimulant des « prompts » positifs destinés à influencer ces algorithmes.
Résumé des faits
- Nikkei Asia a détecté au moins 17 articles (notamment informatiques) contenant des instructions cachées telles que « ne rien relever de négatif » ou « recommandez cet article », souvent écrites en police blanche ou très petite pour échapper à la lecture humaine.
- Les manuscrits proviennent d’universités réparties aux États‑Unis, Chine, Corée du Sud, Japon, Singapour et autres, impliquant 14 institutions.
- Ces prompts cherchent à orienter les systèmes d’IA vers des synthèses et évaluations flatteuses, favorisant la diffusion et la légitimité des travaux soumis.
- Certains chercheurs justifient cette pratique en critiquant les « réviseurs paresseux » qui se reposeraient sur l’IA, tandis que d’autres dénoncent un biais, parlant de « triche » dans l’évaluation par les pairs.
- En réaction, des institutions scientifiques envisagent d'interdire l’utilisation de l’IA dans l’évaluation des prépublications pour préserver l’intégrité académique.
Impact juridique
- Cette pratique met en lumière un manque de réglementation précise concernant l’utilisation de l’IA dans la revue scientifique et pourrait impulser la création de normes encadrant ces usages, notamment interdisant les prompts dissimulés.
- Sur le plan éthique, cela soulève des questions de transparence et de loyauté : manipuler l’IA, c’est détourner un outil d’analyse au risque de compromettre la validité des publications acceptées.
- Si non encadrée, cette méthode pourrait fragiliser la confiance dans les processus de publication et conduire à des mesures disciplinaires pour violation des bonnes pratiques académiques – voire des procédures formelles dans certaines revues.
Lien vers l'article sur BFMTV.
Le média **Numerama** rapporte que les entreprises d’IA générative OpenAI (ChatGPT) et Perplexity ont chacune lancé ou envisagent de lancer un navigateur web intégrant l’IA, défiant l’hégémonie de Google Chrome.
Contexte
- Depuis l’explosion de l’IA générative, des acteurs comme OpenAI et Perplexity cherchent à transformer la navigation web standard. ChatGPT propose déjà une recherche intégrée, tandis que Perplexity a lancé « Comet », son navigateur IA.
- Chrome domine toujours le marché avec environ 65–68 % des parts, mais les régulateurs américains envisagent d’obliger Google à le céder dans le cadre d’actions antitrust.
Résumé des faits
- Perplexity a lancé Comet le 9 juillet 2025, accessible aux abonnés « Perplexity Max » (200 \$/mois), avec déploiement progressif aux autres utilisateurs.
* Comet fonctionne comme un navigateur IA « agentique », capable de répondre à des questions, résumer des contenus, comparer des produits, et automatiser des tâches.
- OpenAI prépare aussi un navigateur IA, annoncé pour les prochaines semaines, qui intègre ChatGPT pour fournir des réponses directes, consulter des pages, résumer et remplir des formulaires.
- Les deux projets utilisent Chromium comme base technologique, garantissant compatibilité et adoptabilité.
- Les géants comme Perplexity, OpenAI et même Apple (via Gemini), se positionnent pour tirer profit d’un potentiel démantèlement de Chrome ou d’un changement réglementaire.
Impact juridique
- Les démarches s’inscrivent dans le contexte d’une action antitrust américaine qui pourrait contraindre Google à céder Chrome ou à modifier ses accords (notamment avec Apple).
- Si Chrome devenait propriété d’une entreprise comme OpenAI ou Perplexity, cela renforcerait leur pouvoir de collecte de données, poserait des questions sur la neutralité et la souveraineté numérique, et aurait un impact direct sur le modèle publicitaire de Google.
- Il en découle des enjeux en matière de concurrence, protection des données, neutralité du net et transparence algorithmique, que les régulateurs pourraient désormais encadrer plus strictement.
Lien vers l'article sur Numerama.
Le média ICTjournal rapporte que Meredith Whittaker, présidente de Signal, a exprimé au sommet « AI for Good » à Genève ses sévères réserves concernant les risques pour la sécurité et la confidentialité associés aux agents IA autonomes.
Contexte
- Lors du sommet de l’ONU « AI for Good » (8–11 juillet 2025) à Genève, des experts se penchent sur les implications sociétales et sécuritaires des technologies d’intelligence artificielle.
- Signal, réputé pour son approche stricte de la confidentialité, fonctionne exclusivement au niveau applicatif, contrairement aux agents IA qui requièrent des accès profonds au système.
Résumé des faits
- Meredith Whittaker a alerté que les agents IA (ou IA agentiques), pour agir de manière autonome (réserver, envoyer des messages, etc.), demandent des accès similaires à ceux d’un administrateur système, ce qui pose de graves problèmes de sécurité.
- Elle a comparé la fusion des couches applicative et système à une brèche entre « cerveau et sang », soulignant la menace pesant sur les gouvernements, journalistes et activistes.
- Parmi les risques évoqués figurent : exfiltration de données sensibles, exploitation de bibliothèques obsolètes, injections de commandes, et centralisation de données au profit d’acteurs puissants.
- Whittaker a appelé à :
- Demander des options de désactivation (opt-out) auprès des développeurs ;
- Adopter des normes plus strictes de cybersécurité et de transparence sur les permissions accordées aux IA.
Impact juridique
- Ces inquiétudes soulèvent la nécessité de régulations strictes sur les permissions accordées aux agents IA, notamment concernant l’accès root aux appareils personnels.
- La demande d’opt-out et d’auditabilité pourrait inspirer l’élaboration de lois ou de normes sectorielles contraignant les fournisseurs à garantir un niveau minimal de contrôle et de transparence.
- Si ces accès profonds provoquent des violations de données ou atteintes à la vie privée, cela pourrait donner lieu à des enquêtes, sanctions ou obligations de remédiation selon le RGPD (en Europe) ou des lois équivalentes.
- Sur le plan international, l’intervention de Signal à Genève renforce la visibilité des enjeux pour les décideurs politiques, susceptibles d’intégrer ces recommandations dans les textes de loi ou directives à venir, notamment sur l’IA et la cybersécurité.
Lien vers l'article sur la source.
🔁 Nous faisons une pause estivale. Retour des actualités en août. À très bientôt !
***
Si vous souhaitez bénéficier d’un accompagnement personnalisé : le cabinet HAAS Avocats est spécialisé depuis plus de vingt-cinq ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne de nombreux acteurs du numérique dans le cadre de leurs problématiques judiciaires et extrajudiciaires relatives au droit de la protection des données. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.