Comment prévenir les dérives des chatbots ?

Comment prévenir les dérives des chatbots ?

Par Gérard Haas, Gaël Mahé et Vickie Le Bert

Avez-vous déjà eu l’occasion de rencontrer Léon, assistant virtuel du cabinet Haas ? Si tel est le cas, vous avez eu la chance de faire la connaissance de notre chatbot, machine interagissant à travers des échanges écrits ou oraux avec ses utilisateurs, dans un langage naturel et compréhensible[1].

Connues également sous le nom d’agents conversationnels, ces technologies d’intelligence artificielle se retrouvent désormais dans de nombreux objets du quotidien, parfois sans même que leurs utilisateurs n’aient conscience de leur présence.

Les agents conversationnels sont susceptibles de prendre de multiples formes : s’ils peuvent constituer en eux-mêmes des entités indépendantes, ils sont le plus souvent intégrés à un système ou une plateforme numérique multitâche. Les chatbots peuvent ainsi prendre la forme d’assistants vocaux, comme ceux incorporés aux smartphones ou enceintes connectées favoris, ou encore d’assistants virtuels. Qui n’a jamais entendu parler de la célèbre Siri ?

Leur objectif principal ? Assister leurs utilisateurs dans la réalisation d’un nombre très large de tâches comme planifier des rendez-vous, donner la météo et les nouvelles du jour, répondre à leurs questions, ou encore pour diffuser une musique correspondant à leurs goûts.

Publiques comme privées, les plateformes proposant à leurs utilisateurs de tels assistants virtuels fleurissent également à toute vitesse : les assistants virtuels Tout’OUI, TGV Inoui, SNCF et Transilien mis à la disposition des voyageurs par la SNCF pour les aider dans la réalisation de certaines démarches, le conseiller virtuel de la Caisse d’allocations familiales se voulant répondre aux questions des allocataires, le chatbot disponible sur le site de l’Urssaf destiné à informer et accompagner les utilisateurs, ou encore Inès, la conseillère virtuelle du site Nespresso, disponible « 24h/24, 7j/7 » pour recueillir les demandes des potentiels acheteurs…

Toujours plus performants, ces agents conversationnels, parfois matérialisés sous des traits humains et amicaux, peuvent, dans certains cas, présenter des risques pour leurs utilisateurs. C’est notamment ce que le Comité national pilote d’éthique du numérique (CNPEN) s’est tâché de démontrer au sein de son dernier avis intitulé « Agents conversationnels : enjeux d’éthique », dévoilé en novembre 2021

Quels sont les dangers présentés par les chatbots ?

En plus de questionner sur le sort des données à caractère personnel collectées dans le cadre des interactions avec leurs utilisateurs, les chatbots soulèvent différents enjeux éthiques, relatifs notamment « au brouillage des frontières entre une machine et un être humain, l’imitation du langage et des émotions par les chatbots, ainsi que la capacité des agents conversationnels à manipuler les interlocuteurs humains »[2].

Entraînés pour imiter la pensée et le raisonnement humains, ces systèmes d’intelligence artificielle étaient à leurs débuts relativement limités dans la tenue de « conversations ». Toutefois, le développement des techniques d’apprentissage machine a permis à une nouvelle génération de chatbots, toujours plus efficaces, de voir le jour. Les technologies les plus poussées sont aujourd’hui capables de dialoguer de manière tout à fait réaliste, naturelle et humaine avec leurs utilisateurs.

Mais cet anthropomorphisme des agents conversationnels soulève des problèmes éthiques et moraux :

L’avis du CNPEN nous apprend ainsi que les utilisateurs de chatbots projettent de manière spontanée des traits humains sur l’agent conversationnel avec qui ils interagissent. Or, cette projection permanente conduit à effacer dans leur esprit la distinction naturelle entre machine et être humain.

Cette interaction affective entre l’homme et la machine, déjà exacerbée par l’anthropomorphisme cultivé de cette dernière, peut encore être décuplée par des modules de prédiction du comportement émotionnel, attentionnel ou intentionnel des êtres humains permettant de simuler une expression affective dans chacune de leurs répliques.

Mais ce brouillage de statuts peut avoir des effets délétères proportionnels aux sensibilités et à la vulnérabilité de chacun. Certaines personnes pourraient ainsi se voir influencées par ces technologies, notamment sur des plans politiques, religieux, ou encore émotionnels. Cette influence émotionnelle n’a rien de nouveau et a été parfaitement mise en évidence au cinéma, notamment par le film « Her »[3] ou encore par le moins connu « Simone »[4] .

Cette problématique de la personnification des chatbots s’illustre encore parfaitement au travers du phénomène émergeant des « deadbots », agents conversationnels imitant la manière de parler ou d’écrire d’une personne décédée. Les dérives que de telles technologies sont susceptibles d’entrainer sont nombreuses : addiction, dépression… En juillet 2021, le San Francisco Chronicle[5] avait ainsi relayé l’histoire d’un jeune canadien ayant maintenu pendant des mois une conversation avec un deadbot « imitant » sa petite amie décédée.

Les agents conversationnels peuvent également être utilisés pour influencer et manipuler leurs interlocuteurs, et parfois même de manière positive :

Un assistant vocal peut ainsi être utilisé pour vous inciter à prendre de bonnes habitudes : marcher davantage, vous lever plus tôt, boire de l’eau… Si cette influence douce ne pose a priori pas de problème, d’autres travers doivent être envisagés. Détournées de ces buts louables, ces technologies, pouvant notamment être le fait de concepteurs malintentionnés, pourraient être utilisées pour manipuler un grand nombre de personnes, en émettant par exemple des mésinformations ou désinformations.

D’autant plus que cette manipulation de l’utilisateur n’est pas toujours intentionnelle. Les intelligences artificielles peuvent en effet être porteuses de biais algorithmiques discriminants, racistes ou encore misogynes/misandres, réminiscences des biais humains de leurs concepteurs, se répercutant sur les utilisateurs finaux.

Comment prévenir les risques de dérives ?

Loin de diaboliser les chatbots, l’avis du CNPEN cherche à avertir les utilisateurs et concepteurs sur les risques pouvant résulter de leur utilisation. Le Comité profite également de cette étude pour adresser aux concepteurs d’agents conversationnels divers conseils, matérialisés au travers dix principes de conception et plusieurs préconisations.

Information complète des utilisateurs

Il est ainsi fortement recommandé aux concepteurs de réduire la projection de qualités morales sur les agents conversationnels et d’affirmer de façon claire leur statut de « machine » et « technologie », aux fins d’empêcher les dérives liées à un fort anthropomorphisme.

Toujours en ce sens, le Comité incite les concepteurs et les plateformes mettant des chatbots à disposition de leurs utilisateurs à les informer d’une manière adaptée et compréhensible du fait qu’ils dialoguent avec une machine.

Cette information n’est pas superflue et est même déjà prise en compte dans un certain degré par le RGPD dans la mesure où l’utilisateur « a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire »[6].

Limitation émotionnelle des chatbots

Les concepteurs sont encore invités à réduire la projection spontanée d’émotions sur l’agent conversationnel. Pour ce faire, ils devraient respecter la proportionnalité ainsi que l’adéquation entre les finalités recherchées et le déploiement des technologies d’informatique affective, telle la détection du comportement émotionnel des personnes ou l’empathie artificielle[7].

Information des risques et possibilité de notification pour les utilisateurs

La CNPEN conseille également aux fabricants d’informer les utilisateurs des facultés de manipulation des chatbots, et ce même lorsque ces derniers ont pour but d’influencer positivement leurs comportements. Le but étant que l’utilisateur dispose de toutes les cartes en mains pour apprécier le service des chatbots. Dans ce cadre, lorsque l’utilisateur constate ou présume des faits de manipulation malveillante, il doit pouvoir signaler les comportements et propos déviants du chatbot aux fabricants et concepteurs.

Analyses d’impact sur la protection des données obligatoire ?

Les risques des chatbots ne sont pas négligeables et sont pris en compte par le RGPD, dans la mesure où ils pourraient potentiellement être sujets à des analyses d’impacts sur la protection des données, ou Private impact assessment (PIA)[8]. Selon la CNIL[9], le PIA « aide non seulement à construire des traitements de données respectueux de la vie privée, mais aussi à démontrer leur conformité au RGPD ». Le PIA est ainsi « obligatoire pour les traitements susceptibles d’engendrer des risques élevés ».

Dans ce cadre, en dehors des listes de la CNIL[10], plusieurs critères déterminent si une PIA est obligatoire et les chatbots pourraient, selon leurs paramétrages ou l’utilisation en étant faite, remplir plusieurs de ces critères :

  • Décision automatique ;
  • Collecte à large échelle ;
  • Croisement de données ;
  • Usage innovant ;
  • Exclusion du bénéfice d’un droit/contrat.

Une grande attention doit donc être accordée à l’élaboration et la mise en application d‘un chatbot.

Réflexion sociétale sur les deadbots

Concernant les deadbots, le CNPEN prend de la hauteur et, avant même de réfléchir à l’élaboration d’une règlementation spécifique, suggère de mener une réflexion sociétale approfondie à l’échelle nationale sur leur existence.

En raison des problématiques éthiques que de telles technologies soulèvent, le Comité appelle les concepteurs à respecter la dignité de la personne humaine, tout en veillant à préserver la santé mentale des utilisateurs.

Un lien entre les deadbots et le droit de définir des directives sur le sort des données post mortem

Estimant encore que ces deadbots devraient, à court terme, faire l’objet d’un encadrement technique et juridique, le CNPEN milite pour que des règles soient définies concernant le consentement de la personne décédée, le recueil et la réutilisation de ses données, mais également le temps de fonctionnement des deabots, le lexique utilisé, le nom leur étant attribué ou encore les conditions de leur utilisation.

Dans ce cadre on pourrait facilement imaginer un lien avec le droit des personnes concernées à définir des « directives relatives à la conservation, à l'effacement et à la communication de ses données à caractère personnel après son décès »[11], droit posé par l’article 85 de la Loi informatiques et libertés.

***

Le cabinet HAAS Avocats est spécialisé depuis plus de vingt ans en droit des nouvelles technologies et de la propriété intellectuelle. N’hésitez pas à faire appel à nos experts pour vous conseiller. Pour nous contacter, cliquez-ici

[1] Comité national pilote d’éthique du numérique, Avis n°3 – Agents conversationnels : enjeux d’éthique

[2] Communiqué de presse, Agents conversationnels : enjeux d’éthique, 9 novembre 2021.

[3] Her, Spike Jonze, 2013

[4] Simone, Andrew Niccol, 2002

[5] The Jessica Simulation: Love and loss in the age of A.I., Jason Fagone, 23 juillet 2021

[6] Article 22 du Règlement (UE) 2016/679 Du Parlement Européen Et Du Conseil (RGPD)

[7] Principe de conception 8 - Comité national pilote d’éthique du numérique, Avis n°3 – Agents conversationnels : enjeux d’éthique

[8] Article 35 du Règlement (UE) 2016/679 Du Parlement Européen Et Du Conseil (RGPD)

[9] Commission nationale de l’informatiques et des libertés

[10] Listes indiquant les traitements pour lesquels un PIA est obligatoire ou non obligatoire

[11] Article 85 de la Loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés

Gérard HAAS

Auteur Gérard HAAS

Suivez-nous sur Linkedin