Actualités juridiques et digitales

IA Générative vs IA Forte

Rédigé par Haas Avocats | Aug 13, 2024 6:30:00 AM

Par Haas Avocats

L'intelligence artificielle (IA), objet de vifs débats actuels particulièrement en matière d'éthique et de responsabilité, demeure un concept nébuleux pour bon nombre de personnes.

Bien que l'expression « intelligence artificielle » ne soit pas récente[1], c'est réellement en 2022, avec la démocratisation de l'IA générative (ChatGPT pour ne pas la citer), qu'elle a acquis une aura inédite.

L'IA soulève de nombreuses questions, mais l'une des plus problématiques concerne paradoxalement sa définition et la réglementation des modèles d'intelligence artificielle dite forte ou générale, ou plus précisément AGI « Artificial General Intelligence » en anglais.

L’IA forte/générale versus l’IA faible

Il n'existe pas de consensus sur la terminologie utilisée pour décrire les différents types d'intelligence artificielle. Les termes « forte » et « faible » ont été inventés par le philosophe américain John Searle en 1980[2] et sont largement utilisés aujourd'hui.

En résumé, l'IA faible ou étroite est conçue pour effectuer des tâches spécifiques et limitées ce que l’on pourrait comparer à de simples logiciels, tandis que l'IA forte ou générale possède une autonomie et une intelligence globale similaires à celles d'un être humain. Cependant, à ce jour, nous n'avons pas encore atteint ce niveau d'IA.

Pour faire simple l’IA générale pourrait être comparée à skynet dans la saga « Terminator », les protagonistes de « AI intelligence artificielle » ou encore de « Chappie », les androïds d’« Alien » aux réplicants de « Blade runner ».

En 2018, la charte d’OpenAI a annoncé sa stratégie de créer une IA qui surpasserait l’ingéniosité humaine, une IA forte. OpenAI l’a appelé « Artificial General Intelligence (AGI) » :

« Nous entendons par là des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches économiquement rentables » Charte OpenAI 2018.

L'IA forte, ou AGI, n'existe pas et reste encore un concept hypothétique, mais suscite déjà la préoccupation des acteurs du secteur surtout en termes de régulation[3].

Tout est une question de définition mais à la lumière des références évoquées ci avant, l’IA générale n’est encore qu’un projet lointain.

L'IA générative versus l'IA générale

L'IA générative, telle qu'elle est connue aujourd'hui, utilise des modèles de langage de grande taille (LLM) pour créer des contenus originaux (texte, images, vidéo, audio et/ou code logiciel) en réponse à une invite ou à une requête d'un utilisateur ou « déployeur »[1].

En d'autres termes, l'IA générative est considérée comme faible, car elle représente des systèmes informatiques qui se comportent comme s'ils étaient dotés d'une intelligence humaine, sans pour autant l'être réellement. En réalité, les IA, y compris les IA génératives d'aujourd'hui, nécessitent plus d'intervention humaine en coulisses qu'on ne l'imagine.

En revanche, l'IA générale ou l'IA à usage général désigne les systèmes qui utilisent des modèles dotés d'une intelligence équivalente à celle de l'être humain avec un niveau d'autonomie difficile à mesurer. L’IA générative peut être intégrée à l’usage général.

Une évolution de la définition réglementaire de l’IA

L'IA Act, l'un des premiers cadres réglementaires au monde, a dû relever le défi d'intégrer quelque chose qui, en principe, n'existe pas encore : l'IA forte ou générale ou à l’usage général.

Absence de prise en compte de l’IA générative initialement

Depuis sa proposition en 2021 et après la popularisation de l'IA générative à l'année suivante, les définitions ont considérablement évolué. En effet, dans la version de 2021, l’IA était définie de la manière suivante :

Article 3 – alinéa 1 : « système d’intelligence artificielle » (système d’IA), un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées à l’annexe I et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit.

Une bataille politique a eu lieu au sein de l'Union Européenne concernant l'exclusion des définitions d'une IA forte potentielle, avec un soutien massif de la France en faveur de son élimination.

Le texte adopté en juin 2023 par le Parlement européen a reformulé l’article 3 relatif aux définitions en y introduisant la possibilité de variation d’autonomie du système d’IA, qu’il n’avait pas dans la version précédente :

Amendement 165, Article 3 – alinéa 1 : « système d’intelligence artificielle » (système d’IA), un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels.

Les termes comme les IAs génératives n’existaient pas dans la proposition initiale.

Prise en compte de l’IA générative en 2023

Pour cela, la révision de 2023 a créé aussi des nouveaux termes, à voir :

Amendement 168, Article 3 – alinéa 1 : « système d’IA à finalité générale », un modèle de système d’IA qui est entraîné sur un vaste ensemble de données à grande échelle, qui est conçu pour la généralité des résultats et qui peut être adapté à un large éventail de tâches distinctes.

Ces modèles n’ont pas d’autonomie mais possèdent des capacités génératives et multimodales. On peut donc y inclure les IA génératives.

Développement d’autres définitions (usage général)

En plus, la version de 2023 de l’IA Act a apporté aussi une autre définition qui pourrait correspondre, ou en tout cas être relié au concept d’AGI, ou IA forte. C’est le « système d’IA à usage général ».

Amendement 169, Article 3 – alinéa 1 : « système d’IA à usage général » ou « general purpose AI » en anglais, un système d’IA qui peut être utilisé et adapté à un large éventail d’applications pour lesquelles il n’a pas été conçu intentionnellement et spécifiquement.

Cette description pourrait correspondre à un niveau d'autonomie propre à l'IA forte, dans la mesure où celle-ci n'est pas spécifiquement et intentionnellement conçue.

Ainsi, la Commission a essayé quand même d’établir des critères techniques pour dire que les modèles « general purpose » étaient les modèles formés à l'aide d'une puissance de calcul totale de plus de 10^25 FLOP[4].

Cependant, malgré les efforts déployés dans le texte, les définitions demeurent floues et ont été modifiées en 2024.

Les définitions de l'IA Act adoptées en mars et publiées en juillet 2024

Le texte adopté en mars et publié en 2024[5] a apporté des changements significatifs en matière de définitions. Notamment, le terme « système d'IA à finalité générale » n'est plus utilisé, contrairement à la version de 2023.

Ce changement était pour éviter toute confusion entre les terminologies « IA à finalité générale » et « IA à usage général ». Le texte a fait référence uniquement à un système d'IA, incluant l'IA générative, et les systèmes d'IA à usage général.

Article 3 – alinéa 1 : « système d’IA », un système automatisé qui est conçu pour fonctionner à différents niveaux d'autonomie et peut faire preuve d'une capacité d'adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu'il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels.

Et la définition qui pourrait être le plus adaptée à une potentielle IA forte était la suivante :

Article 3 – alinéa 66 : « système d’IA à usage général » ou « general-purpose AI system » en anglais, un système d'IA qui est fondé sur un modèle d'IA à usage général et qui a la capacité de répondre à diverses finalités, tant pour une utilisation directe que pour une intégration dans d'autres systèmes d'IA.

Et le modèle susmentionné sur lequel un système d’IA est conçu était défini comme suit :

Article 3 – alinéa 63 : « modèle d’IA à usage général » ou « general-purpose AI model » en anglais, un modèle d'IA, y compris lorsque ce modèle d'IA est entraîné à l'aide d'un grand nombre de données utilisant l'auto-supervision à grande échelle, qui présente une généralité significative et est capable d'exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont le modèle est mis sur le marché, et qui peut être intégré dans une variété de systèmes ou d'applications en aval, à l'exception des modèles d'IA utilisés pour des activités de recherche, de développement ou de prototypage avant leur mise sur le marché.

Même avec les définitions publiées, l'IA forte continue de susciter des préoccupations et il est important de suivre les développements dans ce secteur de pointe autant techniquement que juridiquement.

Récemment, la Commission européenne a annoncé son intention de permettre aux fournisseurs de modèles et à la société civile d'élaborer des codes de bonnes pratiques pour les modèles d'intelligence artificielle à usage général.

L’IA existe-t-elle réellement ?

En 2021 l’IA était définie comme un logiciel dans l’ancienne version de l’IA Act. Dans l’imaginaire collectif, l’IA a toujours été vue comme ce que l’on nomme l’IA générale/forte. Le concept d’IA étroite/faible est relativement récent.

Les IA que nous voyons aujourd’hui sont toutes, sans exception, considérées comme des IA étroites/faibles. Alors qu’est ce qui distingue une IA étroite/faible des simples logiciels ou d’un logiciel complexe ou avancé ?

La réponse vient peut-être du marketing qui a trouvé qu’un produit se vendait mieux si on le caractérisait comme une IA plutôt que comme un logiciel. La preuve étant que des logiciels existants depuis maintenant plusieurs années (traduction, paraphrase, correction orthographique, scrapping, biométrie, etc), et qui étaient considérés comme des logiciels, ont maintenant l’étiquette IA.

Au-delà de l’IA générale/forte ?

Au-delà de l'IA générale ou forte, ou AGI, il existe le concept de surintelligence artificielle (ASI), qui repose sur l'idée qu'un système doté des capacités d'une AGI, mais sans les limitations physiques des êtres humains, pourrait apprendre et s'améliorer bien au-delà du niveau humain. Toutefois, cette discussion pourra faire l'objet d'un autre article à venir.

Pour l'instant, force est de constater que l’IA (aujourd’hui faible mais peut être forte demain) fait partie de nos vies. Il est en outre important de partir du principe que l'IA Act repose sur une approche législative fondée sur les risques, qui module l'intensité de la réglementation en fonction de l'évolution des définitions de la technologie.

***

Le cabinet HAAS Avocats est spécialisé depuis plus de vingt-cinq ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne de nombreux acteurs du numérique dans le cadre de leurs problématiques relatives au droit de la concurrence numérique. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.

 

[1] Terme utilisé dans l’IA act pour définir notamment les organismes utilisant une IA a titre professionnel

 

[1] Dans les années 50, le mathématicien Alan Turing avait déjà évoqué cette idée à la publication de son article dans lequel il a proposé un test qui permet d’identifier la capacité d’une machine à tenir une conversation humaine, sans être reconnu comme telle. Aujourd’hui, diverses initiatives tentent de faire la même chose, comme GAIA, lancé le 23 novembre 2023, qui pose des questions de logique pour mesurer « l’humanité » des IA

 

[2] SEARLE John, “Minds, brains, and programs,” Behavioral and Brain Sciences, vol. 3, no. 3, pp. 417–457, 1980

 

[3] Un élément qui aurait déclenché une dispute sur le CEO de Open AI en novembre 2023 est l’existence de Q* ou Q-Star, un système de LLM (Large Modèle de Langage) encore plus puissant et qui se rapproche de l’AGI

 

[4] Une unité de mesure de la rapidité de calcul basée sur une opération en virgule flottante, cette dernière étant définie dans l'article 3.67 de l'IA Act

 

[5] Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle)