Artificial Intelligence Act : le projet de règlement de Bruxelles

Artificial Intelligence Act : le projet de règlement de Bruxelles

Par Gérard Haas et Eve Renaud-Chouraqui

Ce 21 avril 2021, la Commission européenne a publié son projet de règlement dénommé « Artificial Intelligence Act » qui ambitionne de réguler l’intelligence artificielle pour proposer une intelligence artificielle digne de confiance et respectueuse des droits fondamentaux.

Ce projet de règlement s’accompagne de :

  • La proposition d’un plan coordonné sur l’intelligence artificielle (mettant à jour un premier plan datant de 2018), lequel décrit les orientations et les investissements nécessaires au niveau des Etats membres pour renforcer l’ambition de l’Europe de devenir le leader au niveau mondial ;
  • L’annonce d’une future directive relative aux machines et équipements (en remplacement de la Directive Machine de 2006), afin de garantir une intégration sûre des systèmes d’intelligence artificielle dans les machines.

 

1. Les objectifs du projet de règlement

Les objectifs ont été clairement explicités par Margrethe Vestager (vice-présidente exécutive pour une Europe adaptée à l’ère du numérique) et Thierry Breton (commissaire chargé du marché intérieur) : développer une intelligence artificielle digne de confiance, reposant sur une technologie éthique préservant la compétitivité de l’Union européenne.

Selon Margrethe Vestager :

« En matière d’intelligence artificielle, la confiance n’est pas un luxe mais une nécessité absolue. En adoptant ces règles qui feront date, l’UE prend l’initiative d’élaborer de nouvelles normes mondiales qui garantiront que l’IA soit digne de confiance. En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’UE. A l’épreuve du temps et propices à l’innovation, nos règles s’appliqueront lorsque c’est strictement nécessaire : quand la sécurité et les droits fondamentaux des citoyens de l’Union sont en jeu ».

 Ainsi, la régulation s’articule autour d’un équilibre entre la garantie de libérer l’innovation dans des conditions de contrôle proportionnées, afin de garantir la sécurité et les droits fondamentaux des utilisateurs.

L’intelligence artificielle a vocation à créer un marché à fort rentabilité au regard de ses capacités de déploiement dans des secteurs variés : santé, transport, énergie, agriculture, tourisme, cyber sécurité, etc...

Ces secteurs considérés comme stratégiques, touchant des services considérés comme essentiels et/ou sensibles, doivent utiliser l’intelligence artificielle pour améliorer le confort de leurs utilisateurs, sans exposer ces derniers à des risques de détournement.

Dans cette logique, la Commission européenne a développé une approche par graduation des risques.

2. Une approche fondée sur l’évaluation du risque et l’alignement d’obligations proportionnées associées

La démarche de la Commission européenne est la suivante :

  • Pré-qualification des risques inhérents à l’utilisation et au déploiement de l’intelligence artificielle ;
  • Alignement, en miroir de cette pré-qualification, d’obligations graduées et proportionnées.

Le tableau ci-dessous synthétise cette démarche :

Les prochaines étapes ?

L’adoption par le Parlement européen et les Etats membres des propositions de la Commission et l’établissement d’un règlement directement applicable dans l’ensemble de l’Union européenne.

***

Fort d’une expérience dans le domaine du digital et des nouvelles technologies, le cabinet Haas Avocats dispose de départements entièrement dédiés à l’accompagnement de ses clients dans ces domaines.

Le Cabinet est naturellement à votre entière écoute pour toutes problématiques que vous pourriez rencontrer.

Pour plus d’informations ou des demandes de rendez-vous, contactez-nous ici.

 

[1] Sur cette question, la Commission européenne considère que de tels systèmes sont, en principe, interdits pour le maintien de l’ordre, sauf certains cas spécifiques (recherche d’un enfant disparu, prévention d’une menace terroriste, localisation ou identification de l’auteur d’une infraction pénale grave). Dans ce cas, ces systèmes doivent faire l’objet d’une autorisation par une instance judiciaire ou un organe indépendant ET être limités quant à la durée de leur utilisation, la portée géographique et les bases de données consultées.

Gérard HAAS

Auteur Gérard HAAS

Suivez-nous sur Linkedin