Intelligence artificielle : modèles économiques et enjeux juridique

Intelligence artificielle : modèles économiques et enjeux juridique

Par Gérard HAAS

Dans le cadre des Matinales du digital nous traitions de la question de l’IA, de ses modèles économiques et les enjeux juridiques.

1. Qu’est-ce que l’intelligence artificielle ?

La définition la plus simple de l’IA serait de dire que c’est ce qui rassemble toutes les technologies qui permettent de simuler ou de ressembler à l’intelligence humaine. Historiquement, c’est John Mccarthy qui, en 1955, a introduit cette notion.

Le risque qu’il y a avec le fait de parler d'intelligence artificielle c’est évidemment cette projection qu’ont tous les êtres humains à croire que les objets ont également des sentiments, des émotions etc.

C’est à dire que finalement, plutôt que de parler d’intelligence artificielle, il serait plus juste de parler d’intelligence augmentée. Il y a une problématique au niveau du modèle économique, en effet tout le monde a l’air de faire de l’IA, un maximum d’ouvrages paraissent autour de la thématique, et enfin partout on parle d’intelligence artificielle qui est devenu un mot à la mode

2. L'IA est-elle alors un simple outil marketing ou représente-t-elle un réel enjeu économique ? 

 

 

Il ne faut pas se leurrer, un peu des deux. En effet quand les GAFAMI ont prédit de détecter 80% des cancers à travers le monde, de faire en sorte que les niveaux d’éducation s’améliorent mondialement etc, ce sont des promesses qui sont exagérées.

Par contre il y a une réalité en termes de création de valeur. C'est le cas avec la reconnaissance vocale, Alexa ou Google home, les objets connectés qui sont de plus en plus intelligents, mais qui en plus interagissent entres eux.

3. L'IA correspond-elle à une réalité en termes de production ? 

Il y a une réalité en termes de production mais sans doute pas aux niveaux qui nous sont annoncés car nous avons une tendance à l'emballement comme toujours, nous l'avons vu avec par exemple le big data et avec internet même. En réalité cela ne va ni aussi vite que ce qui est annoncé, ni de manière aussi exponentielle. Il y a en effet des algorithmes en deep comme machine learning, qui vont réellement modifier des métiers et créer de la valeur, mais il ne faut pas être totalement naïf face aux discours et communications d'entreprises qui souhaitent valoriser leurs entreprises et services.  

4. Quelles limites juridiques à l’IA ?

Au niveau juridique, rappelons déjà que l’éthique n’est pas le droit, et la morale n’est pas la loi mais des questions juridiques découlent bien de l'IA notamment au niveau des prises de risque. En effet le problème avec l’IA c’est que pour qu’elle puisse prospérer, on a besoin de mettre en place une intelligence artificielle de confiance, qui puisse être bienveillante.

Et là-dessus il y a d’abord l’enjeu des biais. Culturellement, selon le continent dans lequel nous vivons, nous n'aurons pas le même raisonnement dans une approche, par exemple si je suis à bord d’un véhicule autonome et que des personnes traversent, qui vais-je privilégier ? L’enfant, le chien, la personne âgée, etc. Le MIT a présenté des études et selon le continent auquel on appartient, on va privilégier une catégorie de personnes ou une autre. 

Le second point important est que nous avons tous nos biais cognitifs et qu’ainsi le concepteur du programme transmet ses biais aux programmes et aux données. C’est ce que dit Cathy O’neil dans son livre sur les algorithmes, elle parle d’arme de destruction massive mathématique et dit de faire attention aux choix non révélés d’un concepteur. Il y a donc une première demande qui est celle de la transparence, il faut lutter contre l’opacité de l’IA. Il faut pouvoir avoir accès au code, certains disaient “code is law”. Or l’accès au code pose un problème : l’enjeu du secret des affaires.

Une nouvelle qui est relativement intéressante c’est la décision rendue par le tribunal administratif de la Guadeloupe qui a demandé de dévoiler le secret du programme ParcourSup afin qu'il soit possible de déterminer l'arbre de choix et de décision. De fait pour avoir confiance en l'algorithme celui-ci doit être transparent.  

Algorithmes : quelles conséquences pour les étudiants ?

5. Quels enjeux et responsabilités autour de l'IA ?

Devons-nous engager la responsabilité de la machine ou celle du concepteur ? Le droit actuel et les briques sur lesquelles nous pouvons nous accrocher ne sont pas tout à fait efficaces puisqu'il est question d'apporter systématiquement la preuve d’un défaut, d’un produit défectueux ou d’une obsolescence etc.

Ceci n'est pas une solution protectrice, c'est pourquoi se pose la question de créer une sorte de personnalité juridique à l'intelligence artificielle; permettant ainsi d'engager la responsabilité du concepteur. 

Ainsi, opter pour l'intelligence artificielle est un choix stratégique qui nécessite de prendre en compte les niveaux de risques élevés. De fait, au niveau économique, peu de modèles économiques sont en réalité avérés et au niveau juridique, un certain degré d'incertitude persiste. 

L'intelligence artificielle doit donc être éthique by design et security by design.

 

Le cabinet HAAS Avocats, spécialisé dans le domaine vous accompagne dans vos démarches en la matière. Contactez nous pour plus d'informations.

 

Gérard HAAS

Auteur Gérard HAAS

Suivez-nous sur Linkedin

Catégories

Derniers tweets

Besoin d'une réponse
à vos questions juridiques ?

Demande de devis

Consultation téléphonique