Par Gaël Mahe et Gérard Haas
Nous avions vu dans notre article précédent que ChatGPT, créé par OpenAI, ouvrait de nombreuses possibilités que l’on pourrait, sans prendre de risques, qualifier de révolutionnaires.
Cependant, comme le dit l’adage, « l’enfer est pavé de bonnes intentions » de telle sorte que ces nombreuses possibilités pourraient cacher en leur sein des dangers que l’on ne pourrait pas soupçonner au premier abord.
ChatGPT : Une IA faillible
On a pu voir précédemment que l’IA de ChatGPT était tellement révolutionnaire qu’elle pouvait même reconnaître ses erreurs.
Mais le fait de reconnaître ses erreurs implique nécessairement la possibilité pour ChatGPT de commettre des erreurs. Cela a d’ailleurs été très vite découvert par la communauté.
D’aucuns pourront dire qu’il est normal pour un produit technologique et a fortiori une IA de commettre quelques erreurs. Cependant ChatGPT est un dispositif tellement avancé que des réponses fausses à des questions peuvent même mettre le doute à des spécialistes du domaine. On peut donc facilement imaginer un profane tenant pour « mot dit » toute potentielle réponse effectuée par ChatGPT.
D’autant plus si on précise le fait que cette IA ne dispose d’un savoir actualisé jusqu’en 2021, ne comprenant donc pas toutes les informations de 2022 et les découvertes ayant eu cours cette année.
ChatGPT : Une révolution à double tranchant dans certains domaines
Comme chacun le sait, il existe plusieurs domaines d’activité qui restent relativement hermétiques à la population générale sans réelle formation/enseignement.
C’est ici que ChatGPT intervient car il pourra, tel un érudit, répondre aux questions portant sur de multiples domaines considérés à tort ou à raison comme ésotériques.
ChatGPT et Le domaine médical
ChatGPT : un médecin spécialiste à portée de clic ?
Selon plusieurs témoignages, ChatGPT a réussi à diagnostiquer des maladies chez des patients qui n’avaient pas réussi à faire diagnostiquer leurs maladies pendant des années. Il ne leur a alors suffi que d’une seconde pour trouver une réponse au mal qui les rongeait depuis des années.
A la lumière de ces simples témoignages on voit tout de suite les possibilités offertes par cet outil dans les déserts médicaux, dans des zones où l’accès à des spécialistes est laborieux.
ChatGPT : mise en danger de la vie d’autrui
Pourtant, comme dit précédemment, Chat GPT n’est pas infaillible et un mauvais diagnostic peut avoir de lourdes conséquences pour un malade : traitement inadapté, risque sur/sous-évalué, etc.
Juridiquement, il sera aussi impossible d’engager la responsabilité médicale[1] de ChatGPT en cas de mauvais diagnostic.
De la même manière, dans la mesure où, pour utiliser ChatGPT, il faut créer un compte, on pourrait se poser la question du traitement des données de santé par ce dernier. Pour rappel ces données sont considérées comme « sensibles » par le RGPD et leur traitement doit être soumis à certaines garanties particulières[2].
ChatGPT et le juridique
ChatGPT : un vulgarisateur du droit ?
De la même manière que pour le milieu médical, ChatGPT, a réussi à répondre à des questions de droit posées par les utilisateurs. On peut alors entrevoir la possibilité pour les justiciables et même les professionnels du droit de recourir à cet outil pour obtenir des réponses dans des domaines pour le moins nébuleux.
Au hasard, on pourrait prendre comme exemple le domaine de la fiscalité (surtout en France). En effet le CGI[3] n’est pas connu pour sa facilité d’utilisation et le fait qu’une IA fasse le ménage dans ses nombreuses dispositions pourrait déjà mettre théoriquement au chômage de nombreux professionnels du droit.
ChatGPT : quels risques juridiques ?
Même si un mauvais diagnostic juridique est potentiellement sans commune mesure avec un mauvais diagnostic médical, il n’en cause pas moins un préjudice plus ou moins important.
En effet de manière similaire au milieu médical, l’avocat dispose d’une responsabilité civile professionnelle propre en cas de faute professionnelle[4]. L’avocat est aussi déontologiquement lié à un devoir de compétence[5] et surtout de prudence[6].
Sur un autre plan tout aussi important, quand le secret problématique juridique est garanti avec un avocat[7], rien n’est moins sûr avec ChatGPT pour des raisons évidentes.
ChatGPT et la cybersécurité
ChatGPT : un développeur automatique ?
Ici, ChatGPT joue le rôle de traducteur d’un langage souvent inconnu du grand public : le langage de programmation.
En effet, il ressort que ChatGPT est en mesure de coder de manière instantanée. Une capacité plus que pratique quand on est peu familier de l’exercice et que l’on cherche à développer un produit logiciel.
En outre, si ChatGPT est en mesure de coder, il serait en mesure de détecter les erreurs et vulnérabilité dans le code. Très utiles quand plusieurs milliers de lignes de code s’enchaînent.
ChatGPT : l’assistant hackeur
Toutefois, ses analyses de code pourraient potentiellement être utilisées pour guider des hackeurs dans leurs recherches de failles.
Ce type de capacité ne ferait alors qu’alimenter un climat déjà très propice aux piratages et de nombreux sites dont le code n’a pas été suffisamment sécurisé pourraient potentiellement faire les frais des capacités détournées de ChatGPT.
Le RGPD : bouclier contre ChatGPT
Les possibilités offertes par ChatGPT semblent toutefois supplanter les risques évoqués plus haut quand l’IA est utilisée dans des domaines moins risqués.
Le RGPD pourrait être un rempart optimal permettant de protéger la personne concernée contre l’utilisation de ChatGPT car, en principe, « la personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire »[8] avec au minimum pour certains cas le droit « d'obtenir une intervention humaine de la part du responsable du traitement, d'exprimer son point de vue et de contester la décision »[9].
Le droit n’est donc pas totalement désarmé face aux dérives des utilisations qui pourraient être faites de ChatGPT.
Dans un prochain épisode nous verrons que ChatGPT pourrait être une alternative réelle à un acteur que l’on pensait jusqu’alors indétrônable : Google.
***
Le Cabinet HAAS Avocats, fort de son expertise depuis plus de vingt-cinq ans en matière de nouvelles technologies, accompagne ses clients dans différents domaines du droit et notamment en matière de droit de l’IA, de droit des plateformes et de protection des données personnelles. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocat fiable. Pour nous contacter, cliquez ici.
[1] Articles L1111-2 et L1142-1 et suivants du Code de la santé publique
[2] Article 9 du Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données,
[3] Code général des impôts
[4] Article 26 et 27 de la Loi n° 71-1130 du 31 décembre 1971
[5] Article 1.3 du Règlement Intérieur National de la profession d'avocat
[6] Article 1.5 du Règlement Intérieur National de la profession d'avocat : « En toutes circonstances, la prudence impose à l’avocat de ne pas conseiller à son client une solution s’il n’est pas en mesure d’apprécier la situation décrite, de déterminer à qui ce conseil ou cette action est destiné, d’identifier précisément son client. »
[7] Article 2 du Règlement Intérieur National de la profession d'avocat
[8] Article 22.1 du RGPD
[9] Article 22.3 du RGPD