En 2021, cela fera 20 ans que le film « A.I. Intelligence Artificielle » conçu par Stanley Kubrick et finalement tourné par Steven Spielberg est sorti sur les écrans. Ce film fait partie des œuvres qui véhiculent une vision quelque peu idéaliste qui voit l’humanisme comme la propriété clé d’une intelligence artificielle. La tentation, d’associer directement les technologies d’intelligence artificielle telles que les réseaux de neurones à la façon dont l’humain pense et apprend, est grande. Mieux vaut alors nuancer.

Pour quiconque qui s’intéresse au digital, l’apprentissage profond est incontestablement une technologie clé pour l’intelligence artificielle. Les réseaux de neurones convolutifs (convolutional neural networks, CNN) inspirés par le cortex visuel des animaux ont permis de réduire quasiment de moitié le taux d’erreur en reconnaissance d’objets. Les CNN imitent un empilage multicouche de perceptrons afin de pré-traiter les petites portions d’information grâce à des neurones artificiels de traitement pour ensuite mettre en commun les différentes sorties (pooling) grâce à un autre type de neurones. Outre la reconnaissance d’objets (notamment par Facebook), ce type de réseaux est utilisé en traitement automatique des langues et des données multimodales. L’apprentissage par renforcement (A/R) permet d’apprendre de ses propres erreurs et s’approche alors de l’apprentissage humain de type « la carotte ou le bâton » où la récompense peut être partiellement inconnue. L’A/R approche le fonctionnement de la prise de décision par un humain compte tenu de son état lié à son environnement. Sans en connaître les détails théoriques, on devine ses inspirations même si on n’a que de vagues souvenirs de nos cours de SVT : mécanismes de transmission neuronale chez l’humain (dont la règle de Hebb qui dit « cells that fire together, wire together», les neurones qui s’excitent ensemble se lient entre eux), la méthode de Pavlov, les méthodes behavioristes. Oui, de manière approximative, lorsque vous perdez aux échecs contre votre ordinateur, vous avez une sorte de super-chien-de-Pavlov en face de vous.

Rien qu’avec ces exemples, on peut voir qu’il s’agit bien des systèmes bio-inspirés. Mais pourquoi ne peut pas-t-on dire qu’à l’heure actuelle l’IA pense et apprend comme un humain ?

Tout d’abord, l’IA exploitant les réseaux de neurones est inspirée du fonctionnement du cerveau humain et non pas de l’esprit humain ce qui exclut d’emblée les mécanismes cognitifs. Par ailleurs, les neurones artificiels sont nettement moins nombreux que ceux présents dans un cerveau humain et leur agencement est simplifié. Malgré cette simplification, la sortie des algorithmes d’apprentissage profond a pu et peut encore être instable. Résultat : les réseaux de neurones artificiels peuvent être très difficiles à entraîner. Pour comprendre pourquoi, il faut s’intéresser au gradient, soit au fait qu’un neurone artificiel apprend plus ou moins vite selon la couche de neurones dont il fait partie. Le gradient peut s’évanouir (vanishing gradient problem, courant pour les réseaux de neurones récurrents de première génération) lorsque les neurones des couches antérieures apprennent de plus en plus lentement au fil des itérations de l’algorithme ou exploser (exploding gradient problem) dans le cas inverse. Comme ces couches antérieures portent l’abstraction initiale, s’ils apprennent trop lentement ou trop vite cela affecte la sortie. Des solutions techniques ont été trouvées à ce type de problème comme l’utilisation des unités LSTM (long short term memory) capables de mémoriser et contrôler les flux d’informations entrant et sortant de la cellule au lieu d’utiliser les cellules (neurones) « standard ».

Enfin, l’arbitrage, le bien et le mal, typiquement les décisions que l’on doit prendre lorsque l’on est en voiture avec sa famille et on voit un groupe de piétons surgir sur la chaussée, sont des problèmes majeurs qui éloignent les technologies actuelles de l’apprentissage profond de l’IA humaniste de Kubrick/Spielberg. Pour saisir la complexité de ces questions, rappelons- nous l’expérience menée à grande échelle pour perfectionner l’IA des voitures autonomes entre 2016 et 2018 où les réponses d’une IA et celles des humains de plus de 233 pays et territoires ont été confrontées. La plupart préférait sauver une personne plutôt qu’un animal et une personne jeune plutôt qu’une personne âgée, plusieurs personnes au détriment d’une seule personne. De nombreuses questions sur les aspects éthiques restent ouvertes...

Pour penser et apprendre comme un humain, l’intelligence artificielle de demain doit acquérir une intuition (capacité de prédire les comportements, la voiture autonome testée en conditions réelles a justement eu son premier accident de la route car son intelligence artificielle ne s’attendait pas à ce que le bus arrivant de derrière ne ralentirait pas pour la laisser s’insérer), être capable de conceptualiser à partir d’un petit nombre d’exemples (comme le ferait un enfant) et mieux comprendre les interactions.

Pour l’heure, l’intelligence artificielle et l’humain ont besoin l’un de l’autre notamment lorsqu’il s’agit d’accompagner et d’analyser les interactions qui font partie du parcours client. Pour MeetDeal la voie d’intelligence artificielle hybride est tracée.

Article co-écrit avec Nadia Bebeshina, Docteur en Informatique, ancien chercheur postdoctoral dans le cadre du projet ANR TALAD (Analyse et traitement automatique de discours) au Laboratoire Praxiling, Nadia Bebeshina est aujourd'hui chef de projet et chercheur chez MeetDeal.