La semaine dernière nous étions présents sur le salon Big Data Paris, salon consacré aux innovations et développements liés au Big Data. Cette année, le salon a souhaité mettre en avant l’Intelligence Artificielle au travers d’un Lab AI. L’Intelligence Artificielle est en effet un prolongement indéniable de l’analyse intelligente des données ; la valeur des données réside dans la capacité à les analyser.
Retour sur un mariage à succès !
Big Data, c’est quoi au juste ?
“Grosse Donnée”. Cette expression apparaît en 1997 dans des articles scientifiques qui soulignent les défis technologiques liés à la visualisation des grands ensembles de données.
Les problèmes liés à la production massive de données et à leur stockage sont soulignés dès les années 40 avec ce que les spécialistes appellent “l’explosion de l’information” : en 1944, Fremont Rider, bibliothécaire de la Wesleyan University, estimait que la taille des bibliothèques des universités américaines doublait tous les 16 ans ! Il a calculé qu’à ce rythme, la bibliothèque de Yale comporterait 200 millions d’ouvrages en 2040, soit 10 000 kilomètres de rayon nécessitant plus de 6000 personnes pour les référencer !
Les avancées technologiques, en matière de composants des systèmes informatiques (mémoires, processeurs) mais aussi en matière d’architecture (architecture interne des ordinateurs et architecture d’un réseau de machines), accompagnent cette production massive de données, et l’évolution des capacités de stockage. Mais plus que la quantité, c’est la difficulté à analyser les volumes de données stockées via des outils classiques de gestion de bases de données qui caractérisent le phénomène Big Data.
L’IA : une vieille histoire actualisée par le Big Data.
Henri Verdier, lors du débat sur l’Intelligence Artificielle organisé par l’Office Parlementaire d’Evaluation des Choix Scientifiques et Technologiques (OPECST), rappelle que si l’Intelligence Artificielle fait partie des buzzword du moment, c’est en réalité une vieille histoire qui se renouvelle grâce à plusieurs phénomènes : le télescopage d’une science, qui date des années 50, d’une masse de données, et d’une informatique arrivée des jeux vidéos avec les cartes graphiques (GPU).
- La naissance « officielle » de l’Intelligence Artificielle date de 1956, lors de la conférence de Dartmouth, avec deux jeunes mathématiciens, John McCarthy et Marvin Lee Minsky, qui proposent un programme de recherche qui part du principe que l’esprit peut se décomposer et se simuler avec une machine. L’objectif est de reproduire les comportements humains par des machines.
- La production des données s’est quant à elle fortement accélérée ces dernières années, avec le développement de l’économie numérique et l’apparition des géants du web, comme Google, Facebook, Amazon etc. : on estime ainsi que 90% des données récoltées depuis le début de l’humanité l’ont été ces deux dernières années !
- Les GPU, cartes graphiques, appliquées à l’Intelligence Artificielle et notamment au Deep Learning ont permis d’accélérer les temps de calcul, qui posaient problème auparavant. Guillaume Barat, EMEA Business Development chez NVIDIA explique que les GPU permettent de faire toutes les opérations en même temps, au lieu d’avoir à échanger des informations et de faire les calculs les uns après les autres.
Les algorithmes : l’enjeu du Big Data.
Avec un marché estimé à 652 M€ à l‘horizon 2018 en France (étude ATOS / IDC) le marché du Big Data est un en pleine monétisation. Comme évoqué précédemment, la valeur des données réside dans notre capacité à les exploiter et les relier entre elles, rôle des algorithmes.
“Les data sans algorithmes sont un peu comme des violons sans archet” selon Alain Bensoussan, avocat à la cour d’appel de Paris.
Les systèmes informatiques peuvent aujourd’hui mailler les données de manière extrêmement précise et les entreprises l’ont bien compris.
Les exemples les plus courants sont associés au marketing : vos actions sur les réseaux sociaux, les moteurs de recherche, sont analysées et exploitées afin de proposer une expérience personnalisée et favoriser l’acte d’achat.
L’Intelligence Artificielle a besoin des données, de beaucoup de données, pour atteindre des résultats intéressants : c’est par l’exploitation de gros volumes de données que des machines ont battu les humains à Jeopardy (2011) ou à Alphago (2016). Le Machine Learning, et autres techniques de l’Intelligence Artificielle, ont pour but d’identifier des modèles récurrents, des tendances, des signaux faibles, selon un modèle similaire à celui du cerveau humain. Si la branche “intelligence émotionnelle et sensorielle” reste fermée aux machines, elles nous battent déjà dans la capacité à analyser de très grands volumes de données.
On voit ici la complémentarité entre humains et machines : ne plus perdre de temps et d’énergie sur des analyses statistiques, théoriques, que les machines peuvent faire, et faire bien mieux que nous. Grâce aux développements en IA, nous pouvons nous concentrer sur la créativité et notre intelligence émotionnelle et sensorielle. Les algorithmes viennent optimiser nos choix.
Vincent Lalanne voit dans l’Intelligence Artificielle une solution aux questions de gouvernance :
L’Intelligence Artificielle d’aujourd’hui est basée sur une approche déterministe proche de la méthode humaine. Demain, elle sera statistique avec un niveau de fiabilité dépendant du nombre de boucles de contrôle qui aura été réalisé sur la réponse apportée, créant d’autres données de confirmation.
Les données et la qualité de ces données, et de leurs analyses, permettront ainsi d’évaluer au mieux tout type de situation et les solutions possibles, en termes de risques et d’opportunités. Mais ces évolutions posent la question de l’éthique et de la gouvernance des algorithmes, un des principaux enjeux du Big Data pour pallier d’éventuelles dérives.
Des commentaires ? N’hésitez pas !