Par Haas Avocats
Toutes les semaines, Gérard Haas et les directeurs de pôle sélectionnent les actualités qui ont marqué les 7 derniers jours.
Au programme de cette semaine du 24 mars : contrôle CNIL, IA, diffamation, messageries cryptées...
7. Des agents IA capables de passer 100 000 appels par jour 8. Sur TikTok, ces médecins qui utilisent l'IA et le deepfake contre les désinformateurs |
Actualité 1 : Les contrôles de la CNIL en 2025 : applications mobiles, administration pénitentiaire, cybersécurité des collectivités
La CNIL a défini des thématiques prioritaires sur lesquelles elle concentrera ses efforts.
Contexte
La CNIL effectue chaque année des centaines de contrôles pour s'assurer du respect de la protection des données personnelles. Ces contrôles peuvent être déclenchés par des plaintes, des violations de données, ou en lien avec l'actualité.
Résumé des faits
- Accusations ou Problématique :
- Collecte massive de données personnelles via les applications mobiles (données bancaires, géolocalisation, etc.).
- Vulnérabilité des collectivités territoriales face aux cyberattaques, avec un risque de vol de données sensibles.
- Traitement de données sensibles au sein de l'administration pénitentiaire.
- Difficultés dans l'application effective du droit à l'effacement des données personnelles.
- Procédure ou Développements :
- Contrôles des éditeurs d'applications et des fournisseurs de SDK, en particulier sur le paramétrage des SDK et la gestion des permissions d'accès aux données.
- Vérification des mesures de cybersécurité mises en œuvre par les collectivités territoriales.
- Investigations sur les conditions de traitement des données des personnes incarcérées et les mesures de sécurité des établissements pénitentiaires.
- Vérifications sur les conditions de mise en œuvre du droit à l’effacement en coordination avec les homologues européens.
- La CNIL renforce son action de sensibilisation et d'accompagnement des collectivités territoriales en matière de cybersécurité.
- La CNIL souhaite préparer l’entrée en application de la directive NIS2, qui prévoit une montée en compétences et des exigences nouvelles pour les collectivités territoriales en matière de sécurité informatique.
Impact juridique
Les contrôles de la CNIL peuvent entraîner des sanctions en cas de non-conformité avec le RGPD et les autres réglementations en vigueur. Les entreprises et organisations concernées doivent donc s'assurer de respecter les règles de protection des données personnelles. La directive NIS2 va renforcer les exigences en matière de cybersécurité pour les collectivités territoriales.
Lire l'article complet sur CNIL.
Actualité 2 : Les buralistes déploient des caméras qui utilisent l'IA pour vérifier l'âge des clients : la CNIL va à son tour vérifier
Clubic analyse les buralistes en France qui mettent en place des systèmes de caméras équipées d'intelligence artificielle pour estimer l'âge des clients souhaitant acheter des produits dont la vente est interdite aux mineurs (tabac, alcool, jeux d'argent).
Contexte
Cette initiative soulève des questions importantes concernant la protection des données personnelles et la conformité avec les réglementations en vigueur, ce qui motive l'intervention de la CNIL.
Résumé des faits
- Des caméras dotées d'IA sont installées dans des bureaux de tabac pour estimer l'âge des clients.
- Le système vise à empêcher la vente de produits réglementés aux mineurs.
- La CNIL exprime des préoccupations quant à la collecte et au traitement des données personnelles et va mener des vérifications pour s'assurer de la conformité du dispositif avec le RGPD.
- Les données collectées sont conservées pendant une durée limitée (quelques jours).
- Le système ne prend pas de photos et ne stocke pas de données d'identité.
- Certains buralistes affirment que le dispositif est un outil précieux pour lutter contre la vente aux mineurs.
- Des experts en protection des données soulignent les risques potentiels liés à l'utilisation de l'IA pour l'identification des personnes.
Impact juridique
L'utilisation de caméras avec IA pour estimer l'âge des clients doit être conforme au RGPD. La CNIL vérifiera si le dispositif respecte les principes de minimisation des données, de limitation de la conservation, de transparence et de sécurité. En cas de non-conformité, des sanctions pourraient être prononcées. L'article souligne également la nécessité d'une analyse d'impact sur la protection des données (AIPD) avant la mise en place de tels dispositifs.
Actualité 3 : La Commission Européenne avance deux procédures contre Google et Apple dans un contexte de forte tension avec les États-Unis
Le journal Le Monde décrypte les deux procédures de la Commission européenne concernant les pratiques des grandes entreprises technologiques américaines, Google et Apple
Contexte
Ces procédures s'inscrivent dans le cadre du Digital Markets Act (DMA), visant à encadrer les pratiques des "gatekeepers" pour assurer une concurrence plus équitable sur le marché numérique.
Résumé des faits
- Google est visé pour potentiellement favoriser ses propres services (comme Google Shopping) au détriment de ses concurrents.
- Apple est suspecté de restreindre l'accès aux fonctionnalités de son iPhone pour favoriser ses propres services (comme Apple Pay) et désavantager les développeurs tiers.
- Ces procédures interviennent dans un contexte de tensions géopolitiques entre l'UE et les États-Unis concernant la régulation des géants du numérique.
- La Commission Européenne a le pouvoir d'imposer de lourdes sanctions financières en cas de non-conformité avérée.
Impact juridique
Si Google et Apple sont reconnus coupables de non-conformité au DMA, ils pourraient être contraints de modifier leurs pratiques commerciales en Europe. Ces décisions pourraient créer un précédent pour la régulation des grandes entreprises technologiques à l'échelle mondiale. Les sanctions financières potentielles pourraient être très importantes, pouvant atteindre un pourcentage significatif du chiffre d'affaires mondial des entreprises concernées.
Lien vers l'article Le Monde. (Abonnement requis)
Actualité 4 : L'ONG NOYB attaque OpenAI pour diffamation envers un citoyen norvégien présenté à tort comme ayant tué deux de ses enfants
Le journal Le Monde analyse la plainte déposée par l'ONG NOYB (None Of Your Business), spécialisée dans la protection de la vie privée, contre OpenAI pour des informations inexactes fournies par ChatGPT au sujet d'un citoyen norvégien.
Contexte
Cette affaire soulève des questions importantes sur la responsabilité des entreprises d'IA concernant la véracité des informations générées par leurs modèles. Elle intervient dans un contexte de préoccupations croissantes concernant la désinformation et la diffamation potentielles via les outils d'IA.
Résumé des faits
- Un citoyen norvégien a découvert que ChatGPT donnait des informations erronées à son sujet, l'accusant d'avoir tué deux de ses enfants. Ces informations sont totalement fausses et ont causé un préjudice moral important à la personne concernée.
- NOYB a déposé une plainte auprès de l'autorité de protection des données autrichienne, arguant qu'OpenAI n'a pas pris les mesures nécessaires pour garantir l'exactitude des informations générées par ChatGPT.
- L'ONG souligne qu'OpenAI est incapable de corriger ou de supprimer les informations erronées concernant cette personne.
- NOYB demande à l'autorité autrichienne d'ordonner à OpenAI de rectifier les informations fausses et de prendre des mesures pour éviter que de telles erreurs ne se reproduisent.
Impact juridique
La plainte de NOYB vise à établir la responsabilité juridique d'OpenAI en matière de diffamation et de diffusion de fausses informations. Elle pourrait entraîner une amende importante pour OpenAI si l'autorité autrichienne juge l'entreprise coupable de violation des règles de protection des données.
Cette affaire pourrait créer un précédent important pour la réglementation des outils d'IA et la responsabilité des entreprises qui les développent. Elle soulève des questions sur les obligations de transparence et de vérification des données pour les entreprises d'IA.
Actualité 5 : Mesures d’instruction in futurum et droit pénal (de la presse) : cas d’usage, perspectives et limites
L'article sur Dalloz Actualité traite d'une décision récente de la chambre criminelle de la Cour de cassation, qui a confirmé la recevabilité de pièces obtenues par une mesure d'instruction in futurum dans le cadre d'un procès pénal lié au droit de la presse. Cette décision est significative car elle illustre comment des mesures civiles peuvent être utilisées pour renforcer la défense dans des affaires pénales, en particulier dans des cas de diffamation.
Résumé des faits
- Accusations ou Problématique : Un avocat a été accusé d'avoir fait des déclarations inexactes dans un reportage sur l'attribution de "passeports dorés" par Malte. Le journaliste a rapporté que l'avocat se vantait de son influence pour obtenir des décisions favorables pour des clients au passé criminel. L'avocat a contesté ces affirmations, considérant qu'elles étaient diffamatoires.
- Procédure ou Développements : Pour prouver sa bonne foi, l'avocat a demandé au juge civil d'ordonner la remise des enregistrements vidéo des entretiens, en utilisant l'article 145 du code de procédure civile. Le juge a accepté cette demande, permettant ainsi à l'avocat de préparer sa défense avant le procès pénal.
- Réactions : La décision du juge civil a été contestée en première instance, mais la Cour d'appel a finalement jugé que les rushes devaient être examinés, ce qui a conduit à une condamnation des prévenus en appel.
- Législation ou Règlement : L'article 145 du code de procédure civile, qui permet de recueillir des preuves avant un procès, a été central dans cette affaire, soulignant son importance dans le cadre du droit pénal de la presse.
Impact juridique
Cette décision pourrait avoir des répercussions importantes sur la manière dont les preuves peuvent être obtenues et utilisées dans les affaires de diffamation. Elle ouvre la voie à une utilisation plus stratégique des mesures d'instruction civiles pour soutenir des défenses dans des contextes pénaux, ce qui pourrait modifier la dynamique des procès liés à la presse.
Consultez l'article complet sur Dalloz Actualité. (Abonnement requis)
Actualité 6 : Les retours de produits achetés en ligne tels qu'on les connaît, c'est fini : Amazon fait un test pour limiter les coûts
L’article du site Aufeminin présente la nouvelle approche d’Amazon, leader du commerce en ligne, pour gérer les retours de produits.
Contexte
Amazon, leader du commerce en ligne, teste une nouvelle approche pour gérer les retours de produits. Cette initiative vise à réduire les coûts associés aux retours, qui représentent un enjeu financier majeur pour l'entreprise.
Résumé des faits
- Amazon a commencé à expérimenter un système où les retours de produits ne seront plus aussi simples qu'auparavant.
- Les clients pourraient être incités à conserver les articles au lieu de les retourner, ce qui pourrait réduire le volume des retours.
- Cette stratégie s'inscrit dans un contexte plus large où les entreprises cherchent à minimiser les pertes financières liées aux retours, qui peuvent être coûteux en termes de logistique et de traitement.
- Le test pourrait également inclure des modifications dans la politique de remboursement, rendant le processus moins favorable pour les consommateurs.
- Les retours gratuits, qui sont une caractéristique attrayante du commerce en ligne, pourraient être remis en question par cette nouvelle approche.
Impact juridique
Si Amazon modifie sa politique de retours, cela pourrait avoir des implications sur les droits des consommateurs, notamment en ce qui concerne le droit de rétractation. Les clients pourraient se retrouver avec moins de protections en matière de retours, ce qui pourrait entraîner des contestations juridiques.
Lien vers l'article Aufeminin.
Actualité 7 : Des agents IA capables de passer 100 000 appels par jour
Courrier International aborde le sujet du démarchage téléphonique par des agents IA en soulignant l'augmentation du harcèlement téléphonique et ses potentielles implication.
Contexte
Le démarchage téléphonique connaît une révolution grâce à l'intelligence artificielle, permettant désormais de passer jusqu'à 100 000 appels par jour.
Résumé des faits
- Des agents virtuels basés sur le traitement du langage naturel et l'apprentissage automatique peuvent analyser les réponses en temps réel et adapter leur discours.
- Ces systèmes peuvent simuler une conversation naturelle, rendant difficile la distinction entre un humain et une machine.
- La technologie permet de réduire drastiquement les coûts pour les entreprises, divisant les dépenses par dix par rapport à un centre d'appels humain.
- Les secteurs les plus intéressés incluent les assurances, les banques, les organismes de formation, le secteur médical et les services commerciaux.
- Cette technologie soulève des inquiétudes concernant l'augmentation exponentielle des appels intempestifs.
Impact juridique
Dans plusieurs pays, ces pratiques enfreignent les réglementations en matière de protection des données et de prospection commerciale. En France, la loi prévoit des sanctions pour les entreprises ne respectant pas les règles de démarchage téléphonique.
Les autorités peinent à appliquer ces réglementations en raison de la difficulté à identifier et contrôler les systèmes basés sur l'IA. Certaines entreprises contournent déjà la législation en utilisant des numéros masqués ou étrangers. Une réglementation plus stricte est envisagée, notamment pour limiter le nombre d'appels automatisés par entreprise
Lire l’article sur Courrier International.
Actualité 8 : Sur TikTok, ces médecins qui utilisent l'IA et le deepfake contre les désinformateurs
L'article de L'Express traite du phénomène croissant de désinformation médicale sur TikTok, où un syndicat de jeunes médecins utilise des technologies comme l'IA et le deepfake pour contrer les conseils erronés diffusés par des influenceurs.
Contexte
La santé sur les réseaux sociaux, en particulier TikTok, est devenue un terrain où des conseils médicaux non vérifiés sont largement partagés. Un public jeune, souvent influencé par ces contenus, est particulièrement vulnérable aux recommandations dangereuses. La modération des plateformes est insuffisante pour gérer cette désinformation.
Résumé des faits
- Un syndicat de jeunes médecins, ReAGJIR, a lancé une campagne sur TikTok, nommée "Healthbuster", pour dénoncer les faux conseils médicaux.
- Ils utilisent la technologie du deepfake pour créer des vidéos où les influenceurs sont montrés en train de reconnaître les dangers de leurs propres conseils.
- Par exemple, une influenceuse qui recommandait d'insérer des gousses d'ail dans le nez se retrouve à expliquer qu'elle a souffert d'une infection.
- Les vidéos se terminent par un message d'un médecin rappelant l'importance de consulter des professionnels de santé pour des conseils médicaux fiables.
- Malgré l'importance de leur message, les vidéos n'ont pas encore atteint une large audience, avec environ 2000 vues en deux semaines, comparé aux millions de vues des contenus de désinformation.
Impact juridique
L'utilisation de deepfake soulève des questions éthiques et juridiques, notamment en ce qui concerne le droit à l'image des influenceurs dont les visages sont utilisés sans consentement.
Bien que le syndicat affirme respecter la réglementation, des avocats soulignent que cela pourrait poser des problèmes de droit à l'image et d'usurpation d'identité. Le débat se concentre sur l'équilibre entre la nécessité d'alerter le public sur des dangers réels et la protection des droits individuels.
Actualité 9 : Financement de la défense : les Français pourront investir « 500 euros minimum » via un nouveau fonds public
L'article des Echos annonce la création d'un fonds de 450 millions d'euros par Bpifrance, permettant aux Français d'investir dans des entreprises du secteur de la défense à partir de 500 euros.
Contexte
Dans un scénario international marqué par des tensions croissantes, le gouvernement français cherche à renforcer le financement de l'industrie de défense. Le ministre de l'Économie, Éric Lombard, a souligné la nécessité d'impliquer les citoyens dans cet effort de financement.
Résumé des faits
- Création d'un fonds : Bpifrance lance un fonds de 450 millions d'euros, accessible aux particuliers.
- Montant minimum d'investissement : Les Français peuvent investir à partir de 500 euros, avec un capital immobilisé pendant au moins cinq ans.
- Objectif du fonds : Le fonds vise à soutenir les entreprises non cotées du secteur de la défense, notamment les PME et ETI.
- Rendement : Aucun rendement garanti ; le rendement dépendra des performances des entreprises financées.
- Modalités de souscription : Les investissements peuvent se faire via des contrats d'assurance-vie ou directement auprès de Bpifrance.
- Pas d'avantage fiscal : Ce produit ne bénéficie pas d'avantages fiscaux spécifiques, contrairement à d'autres placements réglementés.
Impact juridique
Le fonds est conçu pour être un produit d'investissement à long terme, ce qui implique des engagements de la part des investisseurs sans possibilité de retrait anticipé. Cela soulève des questions sur la protection des investisseurs et la transparence des risques associés.
Actualité 10 : L'Assemblée vote pour le maintien de la confidentialité des messageries cryptées lors d'une nuit agitée
Le Monde aborde le sujet en relatant les débats houleux à l'Assemblée nationale et le vote final qui préserve la confidentialité des messageries cryptées, malgré les pressions pour les rendre accessibles aux autorités.
Contexte
Le débat intervient dans un contexte de tension entre la nécessité pour les autorités de lutter contre le terrorisme et la criminalité organisée, et la protection des libertés individuelles et du droit à la vie privée. L'utilisation croissante des messageries cryptées par des criminels soulève des questions sur la capacité des forces de l'ordre à mener des enquêtes efficaces.
Résumé des faits
- L'Assemblée nationale a voté pour le maintien de la confidentialité des messageries cryptées, rejetant ainsi les amendements qui auraient permis aux autorités d'y accéder plus facilement. Le débat a été vif et a duré une bonne partie de la nuit, reflétant les divisions au sein de la classe politique sur cette question sensible.
- Les partisans du maintien de la confidentialité ont mis en avant la nécessité de protéger les droits fondamentaux des citoyens et de ne pas créer un précédent dangereux pour la surveillance généralisée.
- Les opposants ont souligné les risques liés à l'utilisation des messageries cryptées par des criminels et la nécessité de donner aux autorités les moyens de lutter efficacement contre la criminalité.
- Le gouvernement a finalement soutenu le maintien de la confidentialité, tout en reconnaissant la nécessité de trouver un équilibre entre la protection des libertés et la sécurité publique.
Impact juridique
Le vote de l'Assemblée maintient le statu quo juridique en matière de confidentialité des communications électroniques. Les autorités ne pourront pas accéder aux messageries cryptées sans une autorisation judiciaire spécifique, basée sur des motifs légitimes et proportionnés. Le débat pourrait se poursuivre à l'avenir, notamment dans le cadre de l'examen d'autres projets de loi liés à la sécurité et à la lutte contre la criminalité.
***
A la semaine prochaine pour un nouveau récap de l'actualité juridique numérique.
Si vous souhaitez bénéficier d’un accompagnement personnalisé : le cabinet Haas Avocats est spécialisé depuis plus de vingt-cinq ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne de nombreux acteurs du numérique dans le cadre de leurs problématiques judiciaires et extrajudiciaires relatives au droit de la protection des données. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.