L’Intelligence artificielle : quelle place pour la morale ?

Alors que les intelligences artificielles se multiplient, l’éthique de leurs actions interroge. Quels seraient les scénarios d’une IA sans morale ?

Les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

Vers une IA transparente ?

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule... Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. »

François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème. En effet, si les données présentent des biais – une catégorie de personnes (sexe, ethnie, CSP…) surreprésentée par exemple – ceux-ci vont se répercuter sur les analyses de l’IA. PredPol, un algorithme utilisé par la police américaine pour prédire l’endroit où des crimes auraient une probabilité élevée de se produire, a été pointé du doigt pour sa propension à cibler des quartiers à dominante afro-américaine. L’utilisation du deep learning en marketing web pour segmenter de manière ultra fine l’audience est également décriée. On soupçonne d’ailleurs que ce ciblage couplé à la prolifération de fake news sur les réseaux sociaux, a joué un rôle important dans les dernières élections américaines et le vote anglais sur le sujet du Brexit. Facebook a notamment été pointé du doigt pour avoir agi comme une « chambre d’écho », affichant sur le mur des utilisateurs des posts reflétant leurs propres idées politiques, nuisant grandement au débat et à la dispersion des idées.

Comment faire pour éviter les débordements de cette IA d’influence et de recommandation ?

« Je pense qu’il faut mettre en place un droit à l’explication et à la justification de toute décision assistée par machine, et cette justification – compréhensible par tous – doit pouvoir servir de base pour régler un différend légal en cas de besoin. On pourra alors faire le lien entre les finalités d’un algorithme et ses mécanismes internes »

Grégory Bonnet, membre du GREYC et coordonnateur du projet eThicAa, qui vise à fournir des outils permettant de représenter et d’implémenter des principes éthiques dans les systèmes autonomes.

L’éthique dans la machine

Il n’existe pas encore aujourd’hui de réglementation encadrant le fonctionnement des IA et permettant de s’assurer qu’elles n’enfreignent pas de règles éthiques. De nombreux organismes – l’IEEE, la CERNA… – ont en revanche engagé des réflexions et publié des recommandations à destination des chercheurs et développeurs pour construire des systèmes intelligents éthiques.

Sans s’attaquer directement à la question de l’IA, le Règlement Général sur la Protection des Données (RGPD), entré en vigueur en Europe en mai 2018, impacte directement le carburant du deep learning : la donnée. Pour les experts, le RGPD est un pas dans la bonne direction. « Prônant une collecte raisonnée et parcimonieuse des données – un périmètre restreint où l’on ne valorise que la donnée nécessaire à un usage précis – le RGPD pose littéralement les fondements d’une IA éthique », considère François Royer.

Il existe par ailleurs de nombreuses techniques pour intégrer des principes éthiques dans l’IA.

« Nous savons aujourd’hui encapsuler l’éthique sous forme de lignes de codes. Nous pouvons utiliser par exemple des proxys (copies plus simples de modèles d’IA) ou des exemplars (cas analogues permettant de faire la preuve par l’exemple). On peut également encoder des règles métiers (règles influençant la prise de décision) dans des systèmes experts ou neuronaux… »

François Royer

C’est cette dernière approche, dite symbolique, que défend l’équipe d’eThicAa. Alors que le machine learning se nourrit d’une quantité énorme de données pour trouver de manière autonome un schéma directeur, l’approche symbolique s’appuie sur des règles clairement définies en amont. Deep learning et IA symbolique sont donc deux approches fondamentalement différentes, quoique complémentaires, de l’intelligence artificielle. « Les règles de raisonnement et de déduction de la machine sont décrites de manière explicite sous forme de formules logiques. On peut donc remonter la trace du raisonnement », explique Grégory Bonnet. L’IA symbolique est cependant gourmande en temps de calcul, car le raisonnement logique demande de prendre en compte tous les futurs possibles, mais aussi tous ceux qui n’auraient pas lieu en cas d’inaction de l’IA. « Nous n’avons pas la prétention de proposer l’unique, ou la meilleure solution, confie Grégory Bonnet. Nous sommes par exemple encore loin de la rapidité de raisonnement nécessaire à l’intégration dans un véhicule autonome ».

S’il est possible de programmer des principes moraux dans les IA, ceux qui les développent et les exploitent ont-ils la volonté de le faire ? Rien n’est moins sûr.

« Les IA sont aujourd’hui entre les mains d’une techno-élite déconnectée de la vraie vie, des “geeks” iconoclastes dont l’intelligence émotionnelle est assez faible. Et elles sont financées par des venture capitalists qui voient en elle une promesse absolue de capital technologique, au détriment parfois du capital humain »

François Royer

Pourtant, la question de l’acceptabilité des IA est un enjeu majeur pour tous ceux – géants du web, grands industriels, militaires... – qui souhaitent déployer ces technologies à très forte valeur ajoutée. Or impossible de le faire sans acceptation du public. Pas étonnant, donc, que Facebook ait annoncé avoir monté une équipe « spéciale » dédiée à l’éthique de ses IA, ou que DeepMind (filiale d’Alphabet, la maison mère de Google) ait mis en place une équipe de recherche Ethics & Society, arguant que « l’IA peut offrir des bénéfices extraordinaires au monde, mais uniquement si elle est soumise aux plus hauts standards éthiques ». Bien d’autres entreprises ont pris des dispositions similaires en interne. Mais cette volonté affichée de rendre leurs IA plus éthiques convaincra-t-elle, alors que les acteurs de l’IA sont à la fois juges et parties ? Pourra-t-on faire confiance à une IA certifiée éthique par son développeur ?

« Il faut faire très attention à ce qu’“éthique” ne devienne pas un label que l’on accole à un algorithme ou à une machine et qui donne un blanc seing à ceux qui les construisent. On peut imaginer, par exemple, que le recours à des drones autonomes certifiés éthiques et moraux serait mieux perçu par la population ».

Grégory Bonnet

La fin du statu quo

Avant d’intégrer des règles éthiques dans les IA, encore faut-il les définir. Ce n’est pas une mince affaire, comme le montre le projet Moral Machine du MIT, un jeu éthique qui revisite, à l’ère des voitures autonomes, le fameux dilemme du tramway pensé à la fin des années 60. Sur une plateforme en ligne, on propose aux joueurs de choisir le scénario qu’ils estiment préférable dans de nombreuses situations tragiques : la voiture autonome devrait-elle écraser une famille ou un groupe de jeunes ? Une vieille dame promenant son chien ou un enfant ? Deux personnes traversant hors des clous ou un piéton sur le passage ?...

Plus de 4 millions de personnes dans le monde ont déjà participé à Moral Machine, ce qui en fait l’étude éthique la plus vaste jamais conduite à ce jour selon son co-créateur, le professeur Iyad Rahwan du MIT. Le projet permet d’entrevoir les difficultés qu’il y aurait à tenter de systématiser le comportement d’une voiture autonome : les premiers résultats de l’étude montrent en effet que ce qui est considéré éthiquement souhaitable varie selon les pays, les régions, les cultures.

De manière générale, les joueurs privilégient toutefois l’option qui minimise le nombre de morts… à moins qu’ils ne figurent, eux ou leur famille, au nombre des victimes.
Pour Wendell Walach, professeur à l’Université de Yale et auteur de Moral Machine : From Machine Ethics to Value Alignment, cela prouve que la question de la voiture autonome n’est pas un problème moral. « Si on intègre des algorithmes moraux dans des voitures capables de tuer leurs occupants, des millions de personnes décideront de ne pas les acheter. Donc, pour éviter un accident qui n’a qu’une chance sur plusieurs milliards de se produire, des milliers de gens continueront à mourir sur les routes à cause d’erreurs humaines », a-t-il déclaré. Pour Wallach, ces véhicules ne seront acceptés à grande échelle que si on élabore de nouvelles normes sociales permettant de cadrer leur usage, de déterminer les responsabilités engagées en cas d’accident.

« C’est un dilemme social », estime-lui aussi Iyad Rahwan dans une présentation TED. « Nous avons commencé [Moral Machine] en proposant un dilemme éthique : ce que devait faire la voiture dans un scénario précis […]. Mais nous avons réalisé que le véritable problème était de savoir comment faire pour que la société détermine les compromis qu’elle était prête à faire, les accepte et les applique ».

En d’autres termes, si l‘on souhaite disposer de machines qui reflètent les valeurs sociétales, il faut absolument que la nature de ces valeurs et leur importance relative (leur hiérarchie) soient clairement exprimées et comprises. Or non seulement ces valeurs évoluent dans le temps, mais différentes personnes peuvent avoir des visions contradictoires d’un même phénomène. Comment expliquer à un père, par exemple, qu’une voiture autonome a choisi d’écraser son fils plutôt que de foncer dans un poteau et nuire au conducteur ?

Confronté à un choix impossible, l’être humain a tendance à s‘imaginer qu’il réagira de la bonne façon le moment venu, mais ne veut pas avoir à y penser jusque-là. L’essor des IA va forcer les humains à sortir du statu quo, du cas par cas, et à se poser des questions difficiles pour déterminer le comportement moral adéquat dans des situations extrêmement délicates.

« Le problème que posent les voitures autonomes – et que je vois quant à moi comme une opportunité – est qu’elles nous obligent à tout mettre à plat. Nous allons devoir nous entendre sur des principes, repérer les cas où ces principes ne sont pas satisfaisants, les discuter et trancher. […] Nous sommes en train de passer d’une situation de flexibilité ou plus exactement d’hypocrisie, où il nous est toujours loisible d’avancer les meilleures raisons du monde pour justifier nos arrangements avec la morale a posteriori, à une décision éthique a priori »

Jean Bonnefon, psychologue et co-créateur de Moral Machine.
Voiture autonome : le nouveau dilemme du tramway ?
Partager sur :

Les dangers d’une IA dépourvue de morale

La prolifération des IA dans la vie courante va obliger la société à procéder à des arbitrages difficiles – moral, social, réglementaire… – pour intégrer sereinement ces technologies et leurs impacts. Alors que les IA s’invitent désormais sur les champs de bataille, cette problématique de l’arbitrage se pose également, et avec une acuité accrue, sur le plan militaire. Acceptera-t-on de lancer des robots tueurs autonomes et amoraux sur le théâtre des opérations ?

Imaginez la scène : un essaim de centaines de drones tueurs, pas plus gros qu’un poing, s’introduit dans une université pour assassiner des étudiants dissidents. Munis d’une charge explosive, ils foncent automatiquement sur leurs cibles. La panique est générale, impossible d’arrêter ces engins de mort. Cette frappe chirurgicale terrifiante, c’est le scénario apocalyptique présenté par Stuart Russell, professeur d’IA de l’Université de California-Berkeley, dans un court-métrage qui a fait grand bruit : « Slaughterbots ».

« Nous avons une chance d’éviter le futur que vous venez de voir, mais plus pour très longtemps. Permettre aux machines de tuer des humains sera dévastateur pour notre sécurité et notre liberté »,

annonce Stuart Russell à la fin du film.

Cette peur de voir apparaître des robots tueurs est partagée par de nombreux éminents industriels et spécialistes internationaux de l’IA. 116 d’entre eux – dont Elon Musk, PDG de Tesla, et Mustafa Suleyman cofondateur de DeepMind (Alphabet) – ont signé en août 2017 une lettre ouverte appelant l’ONU à bannir les systèmes d’armes létales autonomes (SALA). « Une fois développées, ces armes permettront l’émergence de conflits à une échelle sans précédent, qui se dérouleront à des vitesses trop élevées pour la compréhension humaine. […] Ces armes pourraient être utilisées par des despotes et des terroristes contre des populations innocentes. Elles pourraient également être piratées », préviennent les auteurs. Une lettre ouverte similaire datée de 2015 a recueilli à ce jour plus de 26 000 signatures, dont celles de 4000 chercheurs en IA/robotique, de Steven Hawking, de Noam Chomsky, et du cofondateur d’Apple Steve Wozniak.

Ces armes existent-elles aujourd’hui ? En 2008 déjà, l’Université d’État Polytechnique de Californie indiquait dans un rapport les capacités d’agir en autonomie du robot militaire sentinelle sud-coréen SGR-A1 placé dans la zone démilitarisée à la frontière avec la Corée du Nord : « Le tir peut être contrôlé manuellement par un soldat ou par le robot en mode entièrement automatique ». Le constructeur du SGR-A1, Samsung Techwin, a toutefois nié cette affirmation, indiquant qu’une autorisation humaine était nécessaire avant d’ouvrir le feu.

Quoi qu’il en soit, les SALA sont indéniablement à l’étude : démonstrateur de drone de combat furtif européen nEUROn développé par Dassault Aviation depuis 2006, prototype de drone de combat américain X-47 A Pegasus (Northrop Grumman), drone britannique Teranis (BAE Systems)… En avril 2018, l’armée américaine annonce publiquement qu’elle développe les premiers drones capables d’identifier et de cibler aussi bien des véhicules que des humains grâce à l’IA.

Faut-il craindre l’avènement des robots tueurs autonomes ? Pour Amandeep Gill, ambassadeur de l’Inde et président du Groupe d’experts gouvernementaux sur les SALA de l’ONU, la réponse est non. « Mesdames et messieurs, j’ai une nouvelle à vous annoncer : les robots ne sont pas en train de conquérir le monde. Les humains sont encore au pouvoir », a-t-il déclaré lors de la première réunion formelle du Groupe, en novembre 2017.

« Nous sommes encore très loin d’être capables d’avoir des machines complètement autonomes, estime-t-il. Et en bout de course, une machine ne prendra jamais la décision de tuer quelqu’un. Elle n’a pas d’intention : elle ne fait qu’obéir aux instructions qu’on lui a fournies ».

Grégory Bonnet

Déterminer la nature de ces instructions, et faire en sorte qu’elles soient en adéquation avec la loi et les valeurs morales de nos sociétés, devra être une priorité pour les champions de l’IA. Les entreprises et les institutions développant les IA, qu’elles soient civiles ou militaires, ne pourront plus se contenter de concentrer leurs efforts sur l’amélioration des performances de leurs machines intelligentes. Sergey Brin, président d’Alphabet, est conscient du défi à relever. « Nous vivons à une époque très inspirante et pleine de promesses. Mais ces opportunités demandent de grandes réflexions, et s’accompagnent de responsabilités immenses, car la technologie est profondément et irrévocablement imbriquée dans nos sociétés », écrivait-il en avril 2018 dans sa lettre aux actionnaires.

PwC en direct

Contactez-nous

François Royer

Directeur Consulting

Tel : +33 5 62 27 59 78

Suivez-nous !