Les algorithmes vont faire des employés de demain des travailleurs augmentés. Un changement qui nécessite de repenser l’éducation et la formation professionnelle, mais aussi de concevoir une intelligence artificielle éthique.
L’un des épisodes les plus marquants de la série de science-fiction Electric Dreams, librement inspirée des œuvres de l’écrivain Philip K. Dick, est sans doute le 8e volet. Intitulé Autofac, il dépeint un univers dystopique contrôlé par une immense entreprise monopolistique entièrement opérée par des machines. S’il est vrai que la science-fiction en dit davantage sur le présent, les peurs et les fantasmes qui le caractérisent, que sur le futur, cet épisode en est sans doute la parfaite illustration, tant la crainte de lendemains inégalitaires permis par le remplacement des humains par les machines infuse l’imaginaire collectif depuis quelques années. Depuis une étude de l’Université d’Oxford, conduite en 2013 par Carl Benedikt Frey et Michael A. Osborne, et concluant que 47% des emplois américains risquaient d’être automatisés au cours des 20 prochaines années, les recherches, controverses et discussions sur le sujet se sont multipliées. Certains ont révisé les chiffres avancés par les deux chercheurs à la hausse ou à la baisse, tandis que d’autres ont préféré insister sur les nouveaux emplois que l’intelligence artificielle va permettre de créer. Ainsi, un rapport du Forum Économique Mondial récemment paru affirme que l’intelligence artificielle et la robotique vont entraîner la création de 60 millions de nouveaux emplois d’ici 2022.
Vers des travailleurs augmentés
Délaissant cette querelle de nombres, certains préfèrent passer du « combien » au « comment » : comment l’intelligence artificielle va transformer le marché du travail, et comment se préparer à ces transformations. Cette question fut âprement débattue lors de la dernière édition de Dreamforce, salon consacré aux nouvelles technologies organisé chaque année par l’entreprise Salesforce, un puissant éditeur de logiciels, à San Francisco. Pour James Manyika, président et directeur du Mckinsey Global Institute, s’il est si difficile d’estimer combien d’emplois seront automatisés dans les années à venir, c’est parce que le cadre de raisonnement n’est pas le bon. « Pour se faire une meilleure idée de la situation, il est important de raisonner en matière de tâches plutôt qu’en termes d’emplois. Chaque emploi est composé d’un certain nombre d’activités, et les progrès de l’intelligence artificielle permettent d’automatiser un certain nombre d’entre elles », a-t-il affirmé.
« Peu nombreux sont les emplois dont l’intégralité des tâches va pouvoir être confiée à des machines ou des logiciels. En revanche, selon les chiffres du bureau du travail américain, 60% des emplois d’aujourd’hui comptent un tiers de tâches qui peuvent être automatisées ou augmentées grâce à l’intelligence artificielle. » Ainsi, c’est moins la perspective d’un chômage de masse qui se profile que celle d’un monde du travail où intelligence artificielle et humaine seront amenées à collaborer d’une manière de plus en plus étroite. C’est également la thèse défendue par l’historien Yuval Noah Harari dans son dernier livre, 21 leçons pour le XXIe siècle. « Le marché du travail de 2050 pourrait bien être défini par la collaboration entre l’homme et l’intelligence artificielle, plutôt que par leur entrée en compétition. Dans des domaines aussi vastes que le maintien de l’ordre et la finance, les humains augmentés grâce à l’intelligence artificielle pourraient être plus performants qu’humains et ordinateurs pris séparément. » Et comme les machines prendront en charge les tâches les plus routinières et rébarbatives, les emplois de demain seront bien plus gratifiants.
De l’importance de l’apprentissage
Il ajoute cependant que ces emplois nécessiteront d’acquérir de nouvelles compétences techniques, et que celles-ci devront être régulièrement actualisées pour suivre les progrès de l’intelligence artificielle. Il sera donc capital de repenser l’éducation, pour permettre aux individus d’apprendre tout au long de leur existence, d’une part, et donner l’opportunité aux travailleurs de bénéficier de formations professionnelles de qualité d’autre part. Pour ce qui concerne l’éducation, le phénomène des MOOCS, ces cours en ligne gratuitement accessibles, constitue pour James Manyika une piste fertile. Lui-même membre de la direction de la Khan Academy, l’une des principales plateformes de cours sur l’internet, il affirme que l’éducation en ligne permet non seulement de former des individus en dehors des bancs de l’université, mais aussi d’expérimenter de nouvelles formes d’enseignement plus adaptées au monde de demain. « En analysant les données d’apprentissage, nous réalisons que les individus n’apprennent pas du tout comme nous le croyions. Les utilisateurs sautent d’une discipline à l’autre, établissent des ponts auxquels nous n’aurions pas songé entre les matières… on découvre ainsi de nouvelles manières d’apprendre, qui permettront aux élèves de se former plus rapidement », a-t-il expliqué.
Les premières plateformes de cours en ligne ont d’ailleurs été conçues par des spécialistes de l’intelligence artificielle. Sebastian Thrun, ancien de Google et professeur en sciences de l’informatique à Stanford et Andrew Ng, lui aussi professeur à Stanford et cofondateur de Google Brain, ont tous deux fondé leur start-up consacrée à l’éducation en ligne, respectivement baptisées Udacity et Coursera. Thrun affirme avoir fondé Udacity comme un « antidote à la révolution opérée par l’intelligence artificielle », tandis que pour Ng, les chercheurs en intelligence artificielle ont la responsabilité de trouver des solutions aux problèmes potentiels causés par leurs recherches, et affirme que Coursera constitue sa propre contribution.
Pour la formation professionnelle, plusieurs entreprises s’efforcent également de montrer l’exemple, dont Salesforce. « Nous avons mis en place Salesforce Trailhead, un programme de formation entièrement gratuit, pour permettre aux individus qui ne sont pas des techniciens, qui n’ont pas de compétences particulières en intelligence artificielle, d’apprendre à se servir des outils qui leur permettront d’être plus efficaces dans leur travail », explique Sarah Franklin, vice-présidente de Trailhead. Plusieurs grandes entreprises américaines, comme Walmart et AT&T, se sont également dotées de programmes similaires. Cependant, selon James Manyika, les efforts déployés par les entreprises demeurent pour l’heure insuffisants. « Les dépenses des organisations publiques et privées consacrées à la formation professionnelle ont décru au cours des vingt dernières années. Et elles étaient déjà plutôt basses à l’époque ! Il faut impérativement que les entreprises changent de stratégie en la matière.
Éthique à Menlo Park
Mais l’arrivée de l’intelligence artificielle sur le marché du travail ne se résume pas à la question de l’employabilité. À mesure qu’ordinateurs et algorithmes occupent une place croissante sur le marché du travail, se pose également la question de leur fiabilité. Car s’ils sont souvent considérés comme infaillibles et impartiaux, les algorithmes peuvent pourtant, tout comme leurs concepteurs humains, commettre des erreurs ou se montrer biaisés dans leurs décisions. Dans son livre Weapons of Math Destruction, la mathématicienne Cathy O’Neil montre ainsi que les algorithmes utilisés par la justice et la police américaines pour prédire la criminalité, et par les compagnies d’assurances pour déterminer les risques et calibrer leurs tarifs, sont souvent biaisés envers les populations les plus défavorisées. « Le fait est rarement évoqué, mais pour entraîner les algorithmes d’aide à la prise de décision, c’est souvent le même jeu de données qui est employé par les différents acteurs qui créent les algorithmes. Ainsi, s’il y a des failles dans ce jeu de départ, les biais dans la prise de décision peuvent rapidement proliférer », a expliqué James Manyika. « Or, les algorithmes étant conçus par des humains, les données choisies pour les entraîner ont toutes les chances de ne pas être parfaitement neutres », a-t-il poursuivi.
« C’est un débat complexe, car d’un autre côté, les algorithmes peuvent aussi permettre aux humains de prendre de meilleures décisions », a complété Timnit Gebru, chercheuse au sein de Google Brain et en charge de l’éthique de l’intelligence artificielle chez Google. « Ainsi, une entreprise baptisée HigherVue utilise l’intelligence artificielle pour assister les ressources humaines. Les algorithmes sélectionnent automatiquement les candidats les plus prometteurs pour un poste donné afin que les ressources humaines puissent les faire passer en interview. Ils affirment que leur solution permet d’avoir une main d’œuvre plus diversifiée. Le risque étant, dans un futur proche, de se retrouver avec une entreprise de ce genre ayant un monopole sur ce service, tout biais potentiel dans son algorithme ayant dès lors des effets dévastateurs. Pour éviter cela, il est à mon sens capital d’avoir un organisme gouvernemental chargé d’auditer ce type de solutions avant leur déploiement. »
Pour Sarah Franklin, c’est également la responsabilité des entreprises des nouvelles technologies que de veiller au bon fonctionnement de ces algorithmes. « Il appartient aux entreprises de se mobiliser sur ce sujet. Se doter de départements consacrés à l’éthique de l’intelligence artificielle peut être un bon début. Il est également capital d’offrir des moyens d’éducation gratuits permettant à un nombre maximal de personnes de se familiariser avec ces technologies, afin que nous soyons plus nombreux à prendre part à la discussion. » Selon Timnit Gebru, la demande doit aussi émaner du public et des groupes de pression, qui ont d’ailleurs commencé à se mobiliser, et ce avec succès. « Au cours de l’année écoulée, les media et la société civile ont montré un intérêt croissant pour les défis posés par les nouvelles technologies, autour de la cybersécurité d’une part et de l’éthique de l’intelligence artificielle d’autre part. Les entreprises prennent ainsi conscience qu’elles doivent se montrer prudentes dans le déploiement de leurs solutions, promouvoir une intelligence artificielle qui aille dans le sens de l’humain et de l’équité. » En septembre 2016, Amazon, Facebook, Google, Microsoft et d’autres entreprises des nouvelles technologies ont ainsi créé un partenariat pour promouvoir une intelligence artificielle éthique.