L’éthique au cœur des réflexions sur l’intelligence artificielle

L’éthique au cœur des réflexions sur l’intelligence artificielle
⏱ Lecture 4 min

Gérard Haas & Axelle POUJOL

Depuis quelques années, les études, conférences, ouvrages relatifs à l’intelligence artificielle se multiplient : derrière le potentiel croissant et la multiplication des innovations, les notions de contrôle, de régulation, d’éthique irriguent les débats.

Depuis longtemps, l’intelligence artificielle nourrit l’imaginaire de l’homme : de nombreux films, ouvrages, articles de presse présentaient des scénarios futuristes divers autour des machines intelligentes. Avec les progrès de la technologie, ces scénarios deviennent aujourd’hui réalité et l’intelligence artificielle a envahi notre quotidien. 

Les robots compagnons envahissent notre quotidien

Demain, ce sont les formes les plus évoluées d’intelligence artificielle qui pourraient être utilisées par tous. Dès lors, reviennent dans le débat les questions liées à la régulation, au contrôle et surtout à l’éthique de l’intelligence artificielle : quelles seront les conséquences de l’intelligence artificielle pour l’humanité ? Faut-il encadrer ces développements ? Autant de questions auxquelles les acteurs concernés, Etats, organismes publics, entreprises, particuliers, devront répondre.

1. Les réflexions autour de l’éthique de l’intelligence artificielle au niveau international

En 2014, dans un essai intitulé « Superintelligence : paths, dangers and strategy », le philosophe et chercheur de l’Université d’Oxford Nick Bostrom imaginait les conséquences potentiellement dévastatrices d’une intelligence artificielle dépassant celle des humains. Si ce scénario catastrophe n’est pas entièrement partagé par les experts de l’intelligence artificielle, il a cependant contribué à lancer un débat mondial sur l’éthique de l’intelligence artificielle[1]. De nombreux chercheurs, scientifiques, philosophes et personnalités ont ainsi signé, entre 2014 et aujourd’hui, de nombreuses lettres ouvertes appelant à se saisir de ces questions, à prévoir des systèmes bénéfiques pour l’humanité ou encore pour interdire les robots-tueurs[2].

Ces prises de position ont amené certaines entreprises, notamment les GAFAM[3], investisseurs très importants en matière d’intelligence artificielle[4], à revoir leurs innovations pour intégrer des principes éthiques : à titre d’exemple, Google a renoncé au renouvellement d’un contrat avec le Pentagone et le PDG du Groupe a publié un texte intitulé : « IA chez Google : nos principes » dans lequel est prévue l’interdiction de développer des « armes ou autres technologies dont le principal objectif est de causer, ou de faciliter directement, des blessures »[5].

Ces réflexions ont également mené les GAFAM à lancer un organisme non-lucratif en 2016, « Partnership on Artificial Intelligence to Benefit People and Society » (« partenariat pour l’intelligence artificielle au bénéfice des citoyens et de la société »), destiné à réfléchir sur les enjeux de l’intelligence artificielle et à formuler des bonnes pratiques afin de garantir une intelligence artificielle éthique et bénéficiant au plus grand nombre[6]. A ce jour, le partenariat compte près de 80 membres (entreprises, organismes, associations, chercheurs, membres de la société civile) et devrait publier ses premières recommandations à l’horizon 2020.

2. Les réflexions autour de l’éthique de l’intelligence artificielle au niveau français

En France, dès 2017, la CNIL a lancé une consultation publique nationale sur tout le territoire sur le thème des algorithmes à l’heure de l’intelligence artificielle. De nombreux champs (médias, éducation, santé, culture ou encore justice, sécurité et défense) ont été abordés par les partenaires de cette consultation[7].

Ces débats ont abouti à la publication d’un rapport intitulé « Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle »[8]. Ce rapport a également conduit à l’annonce d’un plan d’investissement massif de l’Etat français en matière d’intelligence artificielle et au lancement de #FranceIA, décliné en plusieurs groupes de travail pour déterminer la stratégie nationale en matière d’intelligence artificielle[9].

En mars 2018, Cédric Villani, mathématicien et député, a également rendu un rapport très attendu, commandé par le gouvernement, intitulé « Donner un sens à l’intelligence artificielle, pour une stratégie nationale et européenne ».[10] L’objectif de ce rapport était notamment, selon son auteur, de « dresser une feuille de route sur l’intelligence artificielle »[11]. Le rapport a abouti à de nombreuses recommandations sur des problématiques variées comme l’accès aux données, le développement de la recherche ou encore la nécessité de se concentrer sur des domaines tels que la santé, l’écologie et la défense. Le rapport prône également une approche éthique de l’intelligence artificielle et une réflexion sur les conséquences sociétales de l’intelligence artificielle, comme son impact sur le marché de l’emploi[12].

A l’occasion de la remise du rapport lors du sommet AI For Humanity organisé au Collège de France, Antoine Petit, président du CNRS, a également abordé ce thème de l’éthique de l’intelligence artificielle, considérant qu’il faut « créer une intelligence artificielle adaptée à nos valeurs »[13].

La France et le Canada ont également annoncé, en décembre 2018, la création du G2IA ou IPAI en anglais, organisme rassemblant des scientifiques, chercheurs, gouvernements et des membres de la société civile pour étudier les bouleversements liés à l’intelligence artificielle[14].

3. Les réflexions autour de l’éthique de l’intelligence artificielle au niveau européen

Au niveau européen, les institutions se lancent également dans ces réflexions. Ainsi, l’adoption et l’entrée en vigueur du RGPD[15], règlement européen sur la protection des données, a conduit les entreprises à adopter des comportements responsables et à respecter un certain nombre d’obligations en matière de protection et de sécurité des données, dans une démarche de compliance et d’éthique de leurs projets.

En janvier 2019, a été lancé le projet AI4EU, Artificial Intelligence for European Union, porté par la Commission Européenne et piloté par l’entreprise française Thalès, plateforme ayant vocation à rassembler toute la communauté de l’intelligence artificielle en portant les valeurs européennes[16].

A travers ces différents exemples, il est incontestable que l’éthique tient une place majeure dans les débats liés à l’intelligence artificielle aujourd’hui. Ces questionnements, loin d’être tranchés, conduiront très certainement les acteurs du secteur à devoir adopter des comportements différents dans le développement de leurs projets. Ces débats aboutiront-ils à la création, au niveau français, européen ou même mondial, d’un Code de l’intelligence artificielle ? Affaire à suivre…

 

[1] https://www.lemonde.fr/pixels/article/2018/10/04/ethique-et-intelligence-artificielle-recit-d-une-prise-de-conscience-mondiale_5364508_4408996.html

[2] https://www.lesechos.fr/intelligence-artificielle/veille-technologique/0600451999549-la-ruee-vers-lethique-de-lintelligence-artificielle-2236455.php

[3] Google Apple Facebook Amazon Microsoft

[4] https://lexpansion.lexpress.fr/high-tech/l-intelligence-artificielle-sous-controle-des-gafam_1836097.html

[5] https://www.lemonde.fr/pixels/article/2018/06/07/google-s-engage-a-ne-pas-mettre-ses-technologies-d-intelligence-artificielle-au-service-de-l-armement_5311400_4408996.html

[6] https://www.lemonde.fr/pixels/article/2016/09/28/intelligence-artificielle-les-geants-du-web-lancent-un-partenariat-sur-l-ethique_5005123_4408996.html

[7] https://www.cnil.fr/fr/comment-permettre-lhomme-de-garder-la-main-rapport-sur-les-enjeux-ethiques-des-algorithmes-et-de

[8] https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf

[9] https://www.economie.gouv.fr/France-IA-intelligence-artificielle

[10] https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf

[11] https://www.lemonde.fr/pixels/article/2017/09/09/cedric-villani-l-intelligence-artificielle-est-l-affaire-de-tout-le-monde_5183163_4408996.html

[12] https://www.lemonde.fr/pixels/article/2018/03/28/intelligence-artificielle-ce-qu-il-faut-retenir-du-rapport-de-cedric-villani_5277697_4408996.html

[13] https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/rapport-villani-l-ethique-en-intelligence-artificielle-un-sujet-a-part-entiere_122589

[14] https://www.lesechos.fr/intelligence-artificielle/veille-technologique/0600451999549-la-ruee-vers-lethique-de-lintelligence-artificielle-2236455.php

[15] https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32016R0679

[16] https://blogrecherche.wp.imt.fr/2019/01/17/teralab-partenaire-plateforme-ai4eu/

 

Gérard HAAS

Auteur Gérard HAAS

Suivez-nous sur Linkedin