Intelligence Artificielle

Intelligence Artificielle : un scénario à la Black Mirror est-il possible ?

Black Mirror, c’est LA série de référence du moment qui mêle innovation et anticipation. Créée et diffusée en premier lieu par la chaîne anglaise BBC, elle a été rachetée en 2016 par Netflix. A tendance dystopique, elle présente dans chaque épisode un trait de notre société actuelle qu’elle pousse au maximum, faisant ainsi jaillir tout un tas de questions d’ordre éthique.

Si vous avez en vu quelques épisodes, vous savez qu’il s’agit là d’un euphémisme : Black Mirror fait peur. On en sort rarement indemne – et c’est justement là l’attrait de la série : en grossissant les traits de notre société, elle nous force à remettre en question notre usage des technologies. Réseaux sociaux, app de dating, censure – beaucoup de sujets sont abordés dans ces épisodes individuels. Et on y parle aussi… d’Intelligence Artificielle.

L’IA est en effet une de ces nouvelles tendances qui fait jaser. Encore peu connue du grand public dans ses applications concrètes, elle fait surtout parler d’elle pour les dérives qu’elle peut entraîner. Au travers d’une sélection d’épisodes de Black Mirror, on vous propose ainsi d’explorer les effets pervers de l’IA tels qu’elle est abordée dans la série – et en profiter pour faire un reality check car, malgré ce qu’on en dit, l’IA n’est pas (encore ?) prête de conquérir le monde.

effets pervers IA - inspiration Black Mirror© Black Mirror, Netflix

L’IA comme moyen de censure : Arkangel (S4E2)

Synopsis : dans cet épisode, une mère équipe sa fille d’une puce cérébrale qui lui permet de surveiller ses faits et gestes. Données biologiques en temps réel, accès à sa vision – mais aussi censure des images brutales qui pourraient choquer son enfant. Des scènes de TV violentes au chien effrayant : tout ce qui provoque un état de stress est filtré et rendu flou grâce à une Intelligence Artificielle.

Questions : surfant sur la tendance de la surveillance des enfants, cet épisode met le doigt sur la différence entre protection et contrôle des populations sensibles. Où est la ligne qui sépare les deux ? L’Intelligence Artificielle nous interroge sur le bien-fondé de la censure, même si celle-ci est faite « pour le bien » de l’individu.

Réalité : l’alliance de l’Intelligence Artificielle et des neurosciences est aujourd’hui purement théorique, ces dernières alimentant le développement des algorithmes en eux-même. Pour que ce scénario se réalise (ce qu’on ne souhaite pas, au passage), il faudrait une bibliothèque exhaustive des événements choquants à censurer – l’IA n’étant pas capable de faire des transferts de données de ce genre. Cela requerrait en plus des capacités technologiques et scientifiques que nous n’avons tout simplement pas pour développer une puce et l’implanter dans un cerveau humain. Aujourd’hui donc, même si ce scénario est concevable, il relève, heureusement, de la science-fiction.

contrôle des populations par l'IA - inspiration Black Mirror© Black Mirror, Netflix

L’IA comme outil de décision absolu : Hang the DJ (S4E4)

Synopsis : cet épisode met en scène une application de dating qui mesure la compatibilité amoureuse des individus. Deux personnages décident de se soumettre totalement à cet algorithme et de se plier à toutes ses décisions concernant leur vie amoureuse. A la clé : la promesse du partenaire romantique idéal, avec une compatibilité de 100%. Au fur et à mesure de leurs aventures, les 2 protagonistes réalisent cependant que malgré ce qu’en dit l’IA, ils sont faits l’un pour l’autre.

Questions : la question sous-jacente de cet épisode est celle du libre-arbitre. Nous savons que nous faisons rarement le choix optimal dans une situation donnée – nous n’en avons ni les capacités, ni l’énergie. Une IA promettant de prendre des meilleures décisions peut ainsi être tentant – dans le domaine relationnel, mais aussi pour l’investissement, la nutrition, les choix de carrière, etc. Mais aussi puissant soit-il, un algorithme peut-il vraiment remplacer notre processus de décision ? Quelle place est laissée à l’intuition, au hasard et à tout ce qui ne se mesure pas ?

Réalité : on le voit à la fin de l’épisode, les meilleurs choix que nous faisons restent les nôtres. Bien que de nombreux outils existent aujourd’hui pour faciliter notre vie, leur faire une confiance aveugle pour des décisions aussi importantes que le choix d’un partenaire relève tout simplement de la bêtise (petit clin d’oeil à Mariés au premier regard 😉 ). Nous avons les capacités de prendre du recul et nous les utilisons, fort heureusement ! 

compatibilité amoureuse détectée par IA - inspiration black mirror© Black Mirror, Netflix

L’IA comme double digital : Be Right Back (S2E1)

Synopsis : Dans « Be Right Back », le personnage principal est une femme qui vient de perdre son compagnon. Assaillie par le deuil, elle commence à chatter avec une Intelligence Artificielle qui mimique son compagnon. Grâce aux données disponibles en ligne et au machine learning, celle-ci recrée un double digital du défunt. Le service évolue graduellement avec une représentation physique de la personne.

Questions : cet épisode touche beaucoup de sujets : le processus du deuil, l’immortalité à l’ère digitale, le droit d’accès aux données post-mortem et ce que cela veut dire, au final, d’être vivant. Si cet épisode a fait autant réagir, c’est parce qu’il est extrêmement réaliste et mêle des questions pratiques et émotionnelles – et notamment celle des relations amoureuses avec une IA.

Réalité : cet épisode est le plus d’actualité de toute la série, puisque des IAs conversationnelles qui reproduisent des personnes décédées existent déjà. Le plus connu, c’est le griefbot (contraction de chatbot et de grief pour deuil) de Roman Mazurenko. Ces outils permettent à la fois de faire vivre la mémoire des individus tout en offrant un espace d’écoute pour les personnes touchées. On est pour ou contre, en tout cas, une chose est rassurante : nous sommes encore loin de la création d’un android humain à l’image de la série.

 

L’IA est un outil, pensé par et pour les Hommes. Comme pour chaque outil, et de même qu’une voiture peut se transformer en arme mortelle, elle comporte des limites. La question importante, c’est donc : a-t-on confiance en ceux.celles qui développent et gèrent ces outils ?  

C’est ce qui ressort des épisodes de Black Mirror : le contexte est volontairement opaque. Pour des raisons artistiques et de compréhension, les différents épisodes donnent ainsi à voir des univers simplifiés, détachés d’un cadre réel. Peu d’informations sont données sur les institutions à l’origine des outils développés et sur les cadres légaux, sociaux et politiques dans lesquels ils évoluent – il ne semble d’ailleurs y avoir aucun.

Un journaliste chinois déclare d’ailleurs que chaque histoire présente les conséquences de l’acceptation de règles tacites et que le désastre attend ceux qui accueillent la technologie en ignorant la moralité. Il s’agit donc plus d’une question de morale et d’éthique que de technologie. Et bien que Black Mirror décrive des situations qui sont peu probables, la série soulève des questions essentielles pour l’Humanité.

Les organisations technologiques – mais les consommateurs également – ont ainsi un devoir d’information : se renseigner sur les tenants et les aboutissants des outils utilisés, sur leurs droits et sur les possibles dérives.