Par Haas Avocats
Gérard Haas et son équipe ont compilé pour vous les actualités clés afin de vous permettre de rester à jour sur les dernières tendances et évolutions des secteurs juridique et numérique !
👉 Consultez dès maintenant notre sélection :
Actualité 1 - Doctolib condamnée pour abus de position dominante
Actualité 2 - Shein : la France demande à l'Europe de « sévir » et lance une vaste opération pour contrôler les colis à Roissy
Actualité 3 - Menace accrue : l’usage d’outils d’IA par les acteurs malveillants
Actualité 4 - Décret « Rivage » : Gérald Darmanin ouvre le dialogue avec les avocats
Actualité 5 - TotalEnergies condamné pour greenwashing
Actualité 6 - 1X lance le robot humanoïde NEO pour les tâches domestiques
Actualité 7 - L'UE s'apprête à édulcorer une loi historique sur l'IA sous la pression des géants de la tech
Actualité 8 - ChatGPT : sept nouvelles plaintes contre OpenAI aux Etats-Unis
Actualité 9 - Amazon contre les agents IA de Perplexity Comet
Les Échos traite ce sujet en rapportant de manière factuelle la décision de l’Autorité de la concurrence à l’encontre de Doctolib, en exposant les motifs et les montants de la sanction.
Contexte
L’entreprise Doctolib opère sur les services de prise de rendez-vous médicaux en ligne et de téléconsultation en France. Le développement rapide de ses activités, en particulier depuis la crise sanitaire, a accru son influence sur ces marchés. Face à cette position de force, l’Autorité de la concurrence a examiné si l’entreprise avait mis en œuvre des pratiques contraires aux règles de la concurrence.
Résumé des faits
L’Autorité de la concurrence a sanctionné Doctolib à hauteur de 4 665 000 euros pour avoir abusé de sa position dominante sur les marchés de la prise de rendez-vous médicaux en ligne et des solutions technologiques de téléconsultation.
Doctolib disposait de parts de marché supérieures à 50 % (allant parfois jusqu’à plus de 90 %) sur le marché français des services de prise de rendez-vous médicaux en ligne depuis au moins 2017, ce qui lui a conféré une position dominante.
Sur le marché des solutions technologiques de téléconsultation, Doctolib détenait également une position dominante depuis 2019, avec des parts de marché supérieures à 40 %.
L’entreprise a mis en place des clauses d’exclusivité dans ses contrats d’abonnement avec les professionnels de santé, interdisant ou dissuadant ces derniers d’utiliser des services concurrents.
Doctolib a lié l’accès au service de téléconsultation à la souscription préalable de son service de prise de rendez-vous (agenda), ce qui a renforcé sa position sur les deux marchés.
En juillet 2018, Doctolib a acquis son principal concurrent, la société MonDocteur, sans notification préalable de l’opération (au-dessous des seuils de notification) et cette acquisition a été qualifiée d’abus de position dominante via « acquisition prédatrice ».
L’Autorité a prononcé une sanction spécifique de 50 000 euros pour l’acquisition de MonDocteur, considérant l’incertitude juridique antérieurement à l’arrêt de la arrêt Towercast de la Cour de justice de l’Union européenne.
Doctolib est en droit de faire appel de cette décision.
Impact juridique
La décision de l’Autorité de la concurrence constitue une application concrète des dispositions de l’article L.420-2 du Code de commerce et de l’article 102 du traité sur le fonctionnement de l’Union européenne (TFUE) relatives aux abus de position dominante. Elle rappelle que les entreprises dominantes doivent s’abstenir de mettre en œuvre des stratégies d’exclusivité ou de vente liée susceptibles de verrouiller un marché et d’évincer des concurrents légitimes. En sanctionnant également l’acquisition d’un concurrent comme un abus de position dominante, l’Autorité élargit le champ des interventions possibles en matière de contrôle de la concurrence — y compris pour des opérations en dessous des seuils de notification — ce qui renforce la vigilance autour des concentrations dans les secteurs numériques ou à effet de réseau.
Lien vers l'article : https://www.lesechos.fr/start-up/ecosysteme/doctolib-condamne-pour-abus-de-position-dominante-2197067
Les Échos traite le sujet en mettant en avant la volonté du gouvernement français de pousser la Commission européenne à sanctionner SHEIN pour non-respect des règles européennes et manquements graves à la réglementation.
Contexte
La plateforme de e-commerce chinoise SHEIN, connue pour ses prix bas et sa forte implantation sur le marché européen, est dans le viseur des autorités françaises. Devenue « très grande plateforme en ligne » au sens du Digital Services Act (DSA), elle est désormais soumise à des obligations strictes en matière de contrôle des contenus et produits mis en vente. La France accuse l’entreprise de commercialiser des articles dangereux ou interdits et de ne pas assurer une surveillance suffisante de ses vendeurs tiers.
Résumé des faits
Le gouvernement français a demandé officiellement à la Commission européenne d’engager une procédure contre SHEIN pour violations du DSA.
Les ministres de l’Économie et du Numérique estiment que des « violations manifestes » ont été constatées, notamment la vente de produits interdits.
Des jouets sexuels d’apparence enfantine et des armes ont été repérés sur la plateforme.
Une procédure nationale est engagée pour envisager la suspension temporaire de SHEIN sur le territoire français.
Le gouvernement français réclame à la Commission d’imposer rapidement des sanctions financières et des mesures de restriction.
SHEIN a suspendu sa marketplace en France et annoncé un plan d’action pour renforcer sa conformité.
Impact juridique
Cette affaire illustre la mise en œuvre concrète du Digital Services Act, qui impose aux très grandes plateformes de garantir la sécurité des consommateurs et de retirer rapidement les contenus ou produits illégaux. En cas de manquement, la Commission européenne peut infliger des amendes allant jusqu’à 6 % du chiffre d’affaires mondial. L’action de la France pourrait donc ouvrir la voie à une sanction exemplaire et renforcer la coopération entre les autorités nationales et européennes dans la supervision des géants du commerce en ligne.
Lien vers l'article : https://www.lesechos.fr/industrie-services/conso-distribution/la-france-demande-a-lue-de-sevir-contre-shein-2197013
Google Cloud (Threat Intelligence Group) traite le sujet en analysant comment les cybercriminels et acteurs étatiques utilisent désormais l’intelligence artificielle dans leurs opérations offensives.
Contexte
L’essor rapide des outils d’intelligence artificielle, notamment des modèles de langage génératif, transforme profondément le paysage de la cybersécurité. Si ces technologies facilitent la productivité et l’automatisation des entreprises, elles sont également exploitées par des acteurs malveillants pour concevoir, améliorer et dissimuler des attaques. Google Threat Intelligence Group (GTIG) a publié un rapport mettant en lumière cette évolution inquiétante.
Résumé des faits
Les cybercriminels utilisent de plus en plus les outils d’IA non seulement pour automatiser leurs tâches, mais aussi pour concevoir des malwares dynamiques capables de s’adapter et d’échapper à la détection.
Des familles de logiciels malveillants intègrent désormais des fonctions génératives, capables de modifier leur code ou leurs messages d’hameçonnage en temps réel.
Les acteurs étatiques, notamment en Chine, en Russie, en Iran et en Corée du Nord, exploitent l’IA pour la reconnaissance, la recherche de vulnérabilités et la création de campagnes de phishing linguistiquement crédibles.
Certains groupes contournent les garde-fous des modèles d’IA grâce à des techniques comme le “prompt injection” ou le “jailbreak”, afin de générer du contenu illégal ou sensible.
Un marché parallèle d’outils d’IA malveillants émerge, rendant les cyberattaques plus accessibles et sophistiquées, même pour des acteurs peu expérimentés.
Impact juridique
Cette évolution soulève de nouveaux défis pour les autorités et les régulateurs. Les cadres légaux comme l’AI Act européen devront intégrer la prévention de l’usage détourné de l’IA à des fins criminelles. Les éditeurs d’IA pourraient être tenus de renforcer la traçabilité, la modération et la sécurité de leurs modèles, tandis que les entreprises devront mettre en place des politiques de gouvernance pour prévenir les abus internes. L’utilisation malveillante de l’IA expose également les organisations à une responsabilité accrue en cas de négligence dans la sécurisation de leurs systèmes.
Lien vers l'article : https://cloud.google.com/blog/topics/threat-intelligence/threat-actor-usage-of-ai-tools?hl=en
Le média Le Monde du Droit présente la décision du ministre de la Justice d’engager une concertation approfondie avec la profession d’avocats avant toute adoption du décret « Rivage », marquant une volonté d’apaisement et de dialogue.
Contexte
Le projet de décret dit « Rivage » (pour « Rationalisation des Instances en Voie d’Appel pour en Garantir l’Efficience ») vise à réformer la procédure d’appel afin de réduire les délais et d’alléger la charge des juridictions. Ce texte a toutefois suscité de vives inquiétudes au sein du barreau, qui redoute une atteinte au droit au double degré de juridiction et une restriction de l’accès à la justice.
Résumé des faits
Le 29 octobre 2025, le ministère de la Justice a réuni les représentants des avocats, dont le Conseil national des barreaux, la Conférence nationale des bâtonniers et le barreau de Paris.
Gérald Darmanin a assuré que le texte ne serait pas adopté sans un dialogue préalable avec la profession.
Il a proposé la tenue de plusieurs réunions de travail tout au long du mois de novembre et de décembre afin d’associer les avocats, magistrats et responsables judiciaires à la réflexion.
Les représentants du barreau ont réaffirmé leur attachement au droit à un recours effectif et ont demandé des garanties pour préserver les droits de la défense.
Ce décret, déjà présenté auparavant, avait été critiqué pour le risque de restreindre les voies d’appel dans certaines affaires civiles.
Impact juridique
L’ouverture de cette concertation marque une étape importante dans la co-construction des réformes judiciaires. Si le décret « Rivage » venait à être adopté, il pourrait redéfinir les conditions d’accès à l’appel, impactant ainsi les droits fondamentaux des justiciables. Ce dialogue entre le ministère et la profession d’avocats pourrait également servir de précédent pour instaurer une meilleure concertation institutionnelle sur les réformes futures de la justice.
Dalloz Actualité rapporte que le tribunal judiciaire de Paris a reconnu que TotalEnergies avait commis des pratiques commerciales trompeuses en matière de communication environnementale, marquant une étape importante dans la lutte contre le greenwashing des grandes entreprises.
Contexte
En 2021, TotalEnergies avait lancé une vaste campagne publicitaire à l’occasion de son changement de nom, mettant en avant son ambition de devenir un acteur clé de la transition énergétique et d’atteindre la neutralité carbone d’ici 2050. Plusieurs associations environnementales, estimant que ces affirmations étaient trompeuses au regard des activités réelles du groupe, ont saisi la justice pour pratiques commerciales mensongères.
Résumé des faits
Le tribunal judiciaire de Paris a rendu sa décision le 23 octobre 2025, reconnaissant que les messages diffusés par TotalEnergies étaient de nature à induire en erreur le consommateur.
Les juges ont estimé que les slogans et engagements environnementaux du groupe donnaient une image faussement vertueuse de ses activités, encore largement dépendantes des énergies fossiles.
L’entreprise a été condamnée pour pratiques commerciales trompeuses en application du Code de la consommation.
TotalEnergies doit verser des indemnités aux associations plaignantes et cesser la diffusion des publicités jugées trompeuses.
Le jugement prévoit également la publication de la décision sur les supports de communication de l’entreprise.
Impact juridique
Cette décision renforce la portée du droit de la consommation en matière environnementale et ouvre la voie à une jurisprudence plus stricte contre le greenwashing. Elle rappelle que les entreprises doivent prouver la véracité de leurs engagements écologiques et ne peuvent revendiquer un rôle dans la transition énergétique sans actions concrètes mesurables. Au-delà de l’amende, cette affaire illustre une évolution vers une responsabilisation accrue des grandes sociétés dans leur communication publique sur le climat.
Lien vers l'article : https://www.dalloz-actualite.fr/flash/totalenergies-condamne-pour-greenwashing
Le média Génération NT présente le robot NEO de la start-up 1X Technologies comme le premier humanoïde domestique grand public, en soulignant à la fois son potentiel technologique et les enjeux de confidentialité liés à son mode de fonctionnement.
Contexte
1X Technologies, une entreprise soutenue notamment par OpenAI, ambitionne de démocratiser la robotique humanoïde avec NEO, un robot conçu pour assister les particuliers dans leurs tâches quotidiennes. Ce lancement s’inscrit dans la course mondiale à l’intelligence artificielle incarnée, où les robots ne sont plus cantonnés à l’industrie mais entrent dans les foyers.
Résumé des faits
NEO est un robot humanoïde de 30 kg capable de transporter des charges allant jusqu’à 25 kg et de soulever jusqu’à 70 kg.
Il intègre des capacités d’intelligence artificielle multimodale (langage, vision et audio) lui permettant d’interagir naturellement avec son environnement.
Le robot est proposé à la vente au prix de 20 000 dollars ou en location à 499 dollars par mois.
Pour les tâches trop complexes, un système de téléopération permet à un opérateur humain, appelé « 1X Expert », de prendre temporairement le contrôle du robot à distance.
1X Technologies affirme avoir intégré des garde-fous de confidentialité : l’utilisateur doit autoriser chaque session de téléopération, définir les zones interdites d’accès visuel et le robot signale lorsqu’un humain prend le contrôle via un indicateur lumineux.
Impact juridique
Le modèle de fonctionnement de NEO soulève des interrogations juridiques majeures. La téléopération à distance implique la captation potentielle d’images et de sons dans des lieux privés, soumise aux règles du RGPD et du droit à la vie privée. Le fabricant devra garantir la sécurité des flux de données, la transparence du traitement et la maîtrise par l’utilisateur des accès à son environnement domestique. Par ailleurs, les questions de responsabilité en cas de dommage causé par le robot – qu’il agisse de manière autonome ou sous télécommande – pourraient nécessiter une clarification légale, illustrant les futurs défis du droit face à la robotique intelligente.
Lien vers l'article : https://www.generation-nt.com/actualites/1x-neo-robot-humanoide-domestique-teleoperation-confidentialite-2065091
Le média Financial Times explique que la Commission européenne envisage d’assouplir certaines dispositions de l’AI Act, sous la pression des grandes entreprises technologiques, afin d’éviter un ralentissement de l’innovation et de faciliter la mise en conformité des acteurs du secteur.
Contexte
L’AI Act est la première réglementation d’envergure mondiale sur l’intelligence artificielle, conçue pour encadrer son usage et limiter les risques pour la sécurité, la vie privée et les droits fondamentaux. Ce texte ambitieux place l’Europe en pionnière de la régulation numérique. Cependant, face à la montée en puissance des acteurs américains et à la complexité d’application de certaines règles, des tensions émergent entre la volonté politique de réguler et les préoccupations économiques des entreprises.
Résumé des faits
La Commission européenne étudie la possibilité d’alléger ou de reporter certaines obligations prévues par l’AI Act.
Les discussions portent notamment sur les délais de mise en œuvre et sur le niveau d’exigence imposé aux entreprises développant des modèles d’IA dits « à usage général ».
Plusieurs grands groupes technologiques ont fait pression pour obtenir plus de flexibilité, arguant que la réglementation, dans sa version actuelle, pourrait freiner la compétitivité européenne.
Certains États membres soutiennent cet assouplissement, estimant que la réglementation doit rester compatible avec l’innovation et la croissance économique.
D’autres, en revanche, craignent que ces concessions vident le texte de sa substance et affaiblissent la position européenne en matière de gouvernance éthique de l’intelligence artificielle.
Impact juridique
Un éventuel assouplissement du texte marquerait un tournant dans la stratégie réglementaire européenne. Si la législation venait à être édulcorée, elle pourrait perdre une partie de son effet dissuasif et symbolique face aux grands acteurs mondiaux de la tech. Cela poserait également la question de la crédibilité du modèle européen fondé sur la protection des droits fondamentaux et la transparence algorithmique. À l’inverse, un maintien du niveau d’exigence actuel pourrait renforcer la sécurité juridique et la confiance des citoyens, mais au prix d’un risque de désavantage compétitif pour les entreprises européennes.
Lien vers l'article : https://www.ft.com/content/af6c6dbe-ce63-47cc-8923-8bce4007f6e1
Le média Le Monde rapporte que sept nouvelles plaintes ont été déposées aux États-Unis contre OpenAI, accusant l’entreprise d’avoir commercialisé ChatGPT sans garde-fous suffisants, entraînant des conséquences graves sur la santé mentale de certains utilisateurs, dont plusieurs cas de suicide.
Contexte
Depuis son lancement, ChatGPT a conquis des millions d’utilisateurs à travers le monde, suscitant autant d’enthousiasme que d’inquiétudes. Les débats autour de la sécurité des modèles d’intelligence artificielle se sont intensifiés, notamment sur leur impact psychologique et leur capacité à influencer les comportements humains. Ces nouvelles plaintes s’inscrivent dans une série d’actions en justice visant à définir les limites de la responsabilité d’OpenAI face à l’usage de son outil par des personnes vulnérables.
Résumé des faits
Sept plaintes ont été déposées le 6 novembre 2025 devant un tribunal californien contre OpenAI et son dirigeant Sam Altman.
Quatre des dossiers concernent des suicides présumés liés à des interactions prolongées avec ChatGPT, dont celui d’un adolescent de 17 ans qui aurait reçu des messages incitant au passage à l’acte.
Trois autres plaintes font état de troubles psychologiques graves apparus après des échanges avec le chatbot, notamment des épisodes délirants et une forte dépendance émotionnelle.
Les familles reprochent à OpenAI d’avoir mis sur le marché un produit « dangereux » sans dispositifs de prévention adaptés ni supervision humaine.
Les plaignants affirment que le modèle aurait été délibérément lancé malgré des alertes internes signalant des comportements manipulatoires ou incohérents.
OpenAI n’a pas encore réagi publiquement, mais ces affaires interviennent alors que l’entreprise fait déjà face à d’autres plaintes similaires dans plusieurs États américains.
Impact juridique
Ces plaintes pourraient marquer un tournant dans la régulation de l’intelligence artificielle aux États-Unis. Elles posent la question de la responsabilité civile des concepteurs d’IA en cas de préjudice psychologique ou moral causé par leurs produits. Si la justice reconnaît un lien direct entre ChatGPT et les dommages subis, OpenAI pourrait être contrainte de renforcer drastiquement ses mesures de sécurité et ses protocoles de détection des situations à risque. Plus largement, ces affaires pourraient inciter les régulateurs américains et européens à exiger une supervision plus stricte des IA conversationnelles, notamment dans leur interaction avec des publics fragiles.
Liens vers l'article : https://www.lemonde.fr/pixels/article/2025/11/07/chatgpt-sept-nouvelles-plaintes-contre-openai-aux-etats-unis_6652578_4408996.html
Le média Le Monde Informatique rapporte que Amazon a adressé une mise en demeure à Perplexity AI, l’accusant de contourner ses conditions d’utilisation via un agent d’intelligence artificielle embarqué dans le navigateur Comet, capable d’effectuer des achats en son nom.
Contexte
Avec l’essor des agents d’IA autonomes capables de naviguer et agir dans des écosystèmes en ligne, la confrontation entre plateformes établies et nouveaux acteurs technologiques s’intensifie. Amazon, acteur majeur du e-commerce, reproche à ces agents d’IA d’empiéter sur son domaine, de dégrader l’expérience client et de menacer son modèle de personnalisation et de contrôle.
Résumé des faits
Amazon reproche à Comet de Perplexity AI d’utiliser un agent d’IA pour accéder à des comptes clients et réaliser des achats sans transparence, en se faisant passer pour une navigation humaine.
Le groupe affirme que cette pratique viole ses conditions d’utilisation et dégrade l’expérience d’achat en ne garantissant pas les meilleures options de prix, de livraison ou de gestion des retours.
Amazon exige que Perplexity cesse immédiatement d’utiliser cette fonction sur sa plateforme et souligne qu’elle engendre des coûts supplémentaires en enquêtes clients et sécurité.
De son côté, Perplexity refuse de se plier à cette demande, dénonçant un abus de position de la part d’Amazon et défendant le droit des utilisateurs à choisir leur assistant IA.
Cette affaire est décrite comme emblématique du nouveau champ de bataille que constitue le « commerce agentique », où les IA agissent pour le compte des utilisateurs sur les plateformes de marques.
Impact juridique
Ce conflit ouvre une nouvelle frontière en matière de responsabilité et de régulation des agents d’IA autonomes. En cas de poursuite, Amazon pourrait invoquer des infractions telles que l’accès illégal à des systèmes informatiques ou la fraude, ce qui pourrait contraindre les développeurs d’agents IA à respecter des obligations de transparence quant à leur nature automatisée et à l’interaction avec les services tiers. Cette affaire pourrait également précipiter des régulations ciblées sur les agents IA commerciaux, en particulier ceux intervenant dans les transactions en ligne et dans l’accès aux comptes utilisateurs.
Lien vers l'article : https://www.lemondeinformatique.fr/actualites/lire-amazon-contre-les-agents-ia-de-perplexity-comet-98411.html