Intelligence Artificielle

Vers une Intelligence Artificielle éthique

Devant la présence croissante des agents autonomes dans notre quotidien, des spécialistes de l’Intelligence Artificielle proposent de mettre en place des règles éthiques pour leur permettre de rendre compte de leurs actions. D’autres souhaitent l’instauration d’un droit des robots pour résoudre les problématiques juridiques qui s’annoncent.

Parmi les nombreux articles aujourd’hui consacrés aux véhicules autonomes, on voit souvent resurgir une vieille expérience de pensée, le dilemme du tramway. Adapté aux voitures sans chauffeur, il se présente en général sous la forme suivante : un véhicule autonome avec une personne à bord voit cinq piétons surgir brusquement devant lui. Le seul moyen de les éviter consiste, pour la voiture, à s’envoyer dans le décor, sacrifiant du même coup la vie de son passager. Face à ce dilemme cornélien, quel choix le logiciel d’Intelligence Artificielle, aux commandes du véhicule, doit-il effectuer ? Cette expérience de pensée ne relève pas de la science-fiction. De nombreux États Américains autorisent déjà certains constructeurs à tester leurs véhicules autonomes sur leurs routes (avec un conducteur prêt à intervenir derrière le volant). Les véhicules commercialisés par Tesla sont dotés d’un mode autopilote, qui permet à la voiture de se conduire toute seule dans certaines circonstances (quand la conduite est facile, comme sur l’autoroute). Et le sujet ne se cantonne pas aux véhicules autonomes : des assistants virtuels (Siri, Cortana, Google Now…) aux robots humanoïdes, l’Intelligence Artificielle s’insère toujours plus dans notre quotidien. Face à cette réalité, nombreux sont ceux qui insistent sur la nécessité de mettre en place des règles éthiques pour encadrer l’Intelligence Artificielle.

Tesla Intelligence Artificielle

Une Tesla

Une approche pragmatique

Chercheur en Intelligence Artificielle à l’Université de Caen, Grégory Bonnet est l’un d’entre eux. Depuis trois ans, il dirige une équipe d’informaticiens, de sociologues et de philosophes qui travaillent sur les problèmes éthiques posés par l’émergence et la multiplication des agents autonomes. En adoptant une approche très pragmatique.

« L’éthique, ou la morale, peut dépendre du contexte, des utilisateurs ou encore du pays dans lequel la technologie est utilisée. Nous ne cherchons donc pas à définir une morale universelle à laquelle l’Intelligence Artificielle devrait se conformer. En revanche, notre objectif est qu’une machine soit toujours capable de justifier chacune de ses décisions, en manipulant des symboles logiques. Cela passe par la définition de formats de données, de notions philosophiques, de valeurs, de principes, de maximes que l’on peut intégrer dans le processus de création des machines, afin de les rendre capables de répondre de leurs actions en toutes circonstances. » explique Grégory Bonnet.

Quand les mathématiques rencontrent la philosophie

Procédant par cas pratiques, l’équipe de Grégory Bonnet pose des problèmes éthiques qu’elle s’efforce ensuite de résoudre en croisant les disciplines.

« On choisit un problème, celui du trolley, par exemple, on le modélise, à l’aide des mathématiques, puis l’on cherche des outils pour le résoudre, en puisant notamment dans la littérature ou la philosophie. »

La philosophie conséquentialiste, qui s’attache aux conséquences de l’action pour motiver la prise de décision, et dont fait partie la philosophie utilitariste, s’avère notamment riche en ressources.

« On a par exemple la doctrine du double effet, qui permet de trancher entre deux options ayant chacune de bons et de mauvais points. Selon cette doctrine, pour qu’une action soit éthique, il faut d’une part que les bons effets soient proportionnellement plus intéressants que les mauvais, et d’autre part que le bon effet ne soit pas une conséquence de l’existence du mauvais. »

robot sans éthique Intelligence Artificielle

Un robot dépourvu d’éthique

Des machines non pas parfaites, mais responsables

Si l’on reprend le dilemme éthique cité plus haut, en vertu de cette doctrine, le choix éthique consisterait donc à sacrifier le passager du véhicule pour sauver les cinq piétons… Mais les choses ne sont pas si simples :

« Si l’on ajoute la notion d’impératif catégorique kantien, un observateur extérieur affirmant que le véhicule doit se sacrifier pour sauver les cinq piétons doit également accepter que sa propre voiture le sacrifie pour sauver cinq autres personnes. » développe Grégory Bonnet.

Or, qui accepterait de monter dans un véhicule en sachant que ce dernier risque de sacrifier sa vie pour sauver un plus grand nombre de personnes ? Si l’on veut que les véhicules autonomes soient acceptés par la population, il faut donc que ceux-ci aient également pour priorité de protéger leurs occupants… On le voit, l’essor de l’Intelligence Artificielle génère des dilemmes cornéliens ! C’est pourquoi il est capital que l’Intelligence Artificielle soit capable de justifier ses décisions.

« L’important, c’est que la machine soit capable de dire a posteriori : “J’ai agi ainsi en accord avec la doctrine du double effet.”, ou “J’ai procédé ainsi car toute autre action aurait mis en danger la vie des passagers.conclut Grégory Bonnet.

Intervention d’Alain Bensoussan au TEDxParis 

Vers un droit des robots ?

Si son groupe de recherches se cantonne aux questions éthiques et ne s’aventure pas sur le domaine juridique, d’autres ont en revanche franchi le pas. C’est le cas d’Alain Bensoussan. Cet avocat à la Cour d’appel de Paris, spécialisé dans les technologies avancées, se définit comme « l’avocat du droit des robots et de leur souveraineté ». Selon lui, le droit doit s’adapter à l’importance croissante que prend l’Intelligence Artificielle dans nos vies.

« La liberté des hommes est encadrée par la personnalité juridique, celle des autres entités titulaires de droits et d’obligations par la personne morale. De la même manière, puisque les robots sont des automates, des machines intelligentes, capables de prendre des décisions de manière autonome, il faut selon moi créer la notion de personne robot. Avec tout ce que cela implique : identification du robot, pour que l’on sache à qui l’on s’adresse, responsabilité, gouvernance de type équivalente à celle des personnes morales, un capital, une assurance et une traçabilité, c’est à dire un enregistrement de ses faits et gestes pour pouvoir prouver son éventuelle responsabilité. » explique Alain Bensoussan.

juger Intelligence Artificielle

Prévenir les dilemmes judiciaires

Selon lui, en l’absence d’une telle évolution, nous nous retrouverons rapidement face à des apories judiciaires.

« Imaginons qu’une Tesla en mode pilote automatique génère un accident. Aujourd’hui, qui est responsable ? Personne. Le conducteur ne conduisait pas, ceux qui ont codé le logiciel diront que ce dernier s’est formé tout seul, par apprentissage automatique, etc. »

La notion de personne robot permet, en revanche d’introduire une chaîne de responsabilité :

« En cas de défaillance, le robot serait le premier responsable, et après lui, dans l’ordre, l’utilisateur, le créateur de l’Intelligence Artificielle, le fabricant et le propriétaire »

D’accord, mais comment sanctionner un robot ?

« Si l’on juge que le robot n’est pas assez fiable pour servir dans l’espace public, il pourrait être mis à la casse. Étant doté d’un capital, il pourrait également subir une amende. » développe Alain Bensoussan, qui a rédigé une charte des droits des robots, disponible sur son site internet.

Le principe du bon samaritain

Pour l’avocat, en plus de permettre de juger les robots, la loi doit également encadrer leur création, afin que l’on ne puisse concevoir que des intelligences artificielles éthiques :

« Il faut s’assurer que certaines règles concernant la prise de décision sont implémentées lors du processus de création d’un robot, afin que celui-ci soit bienveillant. Une sorte de règle du bon samaritain. Cela implique par exemple de ne pas créer de robots pouvant nuire aux humains, comme le stipule l’une des lois d’Asimov. Les robots létaux doivent donc être interdits.  Il faut également que le robot soit transparent, qu’il ne trahisse pas son interlocuteur humain. »

Robots anthropomorphiques Intelligence Artificielle

Les robots anthropomorphiques de la série Real Humans 

Cette dernière inquiétude est partagée par Andra Keay, Directrice de la Silicon Valley Robotics. Selon elle, les robots anthropomorphiques, notamment, sont dangereux, car ils génèrent de l’empathie, inspirent confiance aux humains, tout en restant des machines au service de leurs propriétaires, potentiellement de grosses entreprises davantage motivées par le profit que par l’intérêt des humains avec qui leurs robots interagissent.

« Un individu dialoguant avec un robot vendeur dans un magasin pourra par exemple se méprendre sur ses intentions, ne pas réaliser que le robot cherche avant tout à lui vendre un produit. » s’inquiète-t-elle.

L’initiative France IA

Pour Alain Bensoussan, il faut enfin assurer une certaine transparence dans les logiciels d’Intelligence Artificielle :

« Il faut aussi rendre les algorithmes transparents, afin que l’on puisse les contrôler, les rendre traçables. »

L’avocat propose ainsi la création d’un Commissariat aux algorithmes, chargé de veiller à l’éthique de ces derniers, comme un commissaire aux comptes veille à l’équilibre des finances. Si, pour l’heure, le pouvoir politique se montre plutôt timide sur la question, l’idée fait peu à peu son chemin. L’initiative France IA, mise en place par la secrétaire d’Etat chargée du numérique et de l’innovation, Axelle Lemaire, et par son homologue à l’enseignement supérieur et la recherche, Thierry Mandon, a ainsi récemment institué la mise en place de sept groupes de travail, dont un consacré aux questions éthiques et sociétales soulevées par l’Intelligence Artificielle. Affaire à suivre, donc.