Pour Yann LeCun, l'IA générative est une impasse
Le directeur de la recherche en IA de Meta assure que l'IA générative n'est qu'un détour sans lendemain, dans une histoire technologique vouée à se prolonger vers des assistants plus intelligents, capables de percevoir l'environnement.
PublicitéAlors que l'engouement autour de l'IA générative est à son summum, le discours de Yann LeCun, l'une des personnalités qui comptent dans l'intelligence artificielle, lors du World AI Cannes Festival (qui se tenait du 8 au 10 février), a de quoi bousculer les certitudes. Pour le chercheur, aujourd'hui directeur de la recherche en IA chez Meta, les LLM, qui portent la vague de l'IA générative, n'ont qu'un avenir limité. D'abord et avant tout, car ils ne s'appliquent qu'au langage (le second L de l'acronyme).
Or, pour le chercheur, cette approche est insuffisante pour atteindre ce qu'il considère comme l'objectif actuel de la recherche en IA : créer une multitude d'assistants guidant les humains dans toutes leurs interactions avec les univers numériques. « Pour ce faire, la technologie doit atteindre les capacités humaines de planification, de raisonnement, de mémoire ou encore de bon sens. Ce qui est totalement hors des possibilités des LLM », indique le chercheur, considéré comme un des inventeurs du deep learning. Et de noter, en guise d'exemple, que malgré l'enthousiasme actuel autour de l'IA, aucun robot n'est encore en mesure d'effectuer une tâche aussi simple que débarrasser et nettoyer une table. « Nous sommes en train de manquer quelque chose d'important », martèle le prix Turing 2018.
« On parle probablement de décennies de travaux »
Pour aller vers ce qu'il appelle l'AMI (Advanced Machine Intelligence), Yann LeCun estime que ni les méthodes d'apprentissage actuelles ni la focalisation sur le langage ne suffiront pas à franchir les prochaines étapes. « Les LLM ne sont pas capables de planification. Par ailleurs, ils ne comprennent pas la réalité sous-jacente aux concepts qu'ils manipulent », observe le chercheur français.
Si le chemin vers l'AMI s'annonce donc ardu, Yann LeCun estime que ce saut quantique dans les capacités de l'IA est possible. « Je ne me pose même plus la question ; cela va arriver. Est-ce que ce sera demain, dans 3 ans, dans 5 ans ? On parle plus probablement de décennies de travaux », reprend le directeur de la recherche en IA de Meta.
D'abord, les capacités d'apprentissage doivent encore s'accroître drastiquement. Certes, d'après les ordres de grandeur donnés par le chercheur, un LLM ingurgite aujourd'hui de l'ordre de 170 000 années de lecture d'un humain. Mais, selon Yann LeCun, un enfant de 4 ans, durant ses 160 000 heures éveillées, a pu affiner sa perception du monde via « 50 fois plus de données que n'importe quel LLM », uniquement par la vue. Par ailleurs, pour Yann LeCun, concentrer l'apprentissage sur le langage ne suffit pas pour comprendre le monde. Le problème ne se résume donc pas à un accroissement de la puissance de calcul. « L'IA générative ne sera pas significativement meilleure en augmentant la puissance de calcul. Nous devons apprendre aux systèmes à comprendre le monde », indique le chercheur.
PublicitéSéquence d'actions optimale en fonction d'objectifs définis
Cette seule extension des typologies de données d'apprentissage ne suffit toutefois pas à paver la voie vers l'AMI. Yann LeCun imagine une nouvelle architecture d'IA contrôlée par des objectifs (d'où le nom de son intervention Objective-driven AI). Schématiquement, le système qu'il dessine combine sa perception du monde à un instant t avec la mémoire de celui-ci qu'il a engrangé afin de mettre à jour son modèle de l'environnement, bâti lors de la phase d'apprentissage. C'est ce modèle qui sert de base pour calculer l'effet qu'aura telle ou telle action dont le système doit décider, en fonction des objectifs et garde-fous qui lui ont été assignés en amont. « Le système devra calculer la séquence d'actions permettant de minimiser les fonctions d'objectifs, sachant que ces objectifs et garde-fous seront codés en dur dans le système », précise Yann LeCun. Une garantie suffisante, selon lui, pour éviter le détournement de ces systèmes à des fins malveillantes.
Si ce système fait appel à des techniques déjà bien connues, il devra embarquer des composants inédits, en particulier pour assurer de la planification hiérarchique. Dans ce chemin tortueux vers l'AMI, Yann LeCun met en avant les travaux autour des architectures JEPA (Joint embedding aredictive architecture). En juin dernier, Meta, en partenariat des universités, avait présenté les résultats d'une architecture de ce type capable de compléter des images, sur la base d'un modèle entraîné via un apprentissage autosupervisé. Une simple pierre dans l'édifice que dessine Yann LeCun. Édifice qui devra, selon lui, obligatoirement s'appuyer sur des fondations open source.
« L'IA ne doit pas être contrôlée par quelques sociétés privées »
« Nous avons besoin d'une grande diversité d'assistants basés sur l'IA pour tenir compte des différentes langues, cultures ou centres d'intérêt. Pour y parvenir, une plateforme open source, permettant aux utilisateurs de régler avec précision les modèles, sera indispensable, assène le chercheur. Cette technologie ne doit pas être entièrement contrôlée par une poignée d'entreprises de la côte ouest (des États-Unis, NDLR) ou de Chine. Je suis persuadé que l'open source va dominer les évolutions technologiques en IA demain. D'une certaine façon, c'est déjà le cas. » Spécialisée dans le partage en open source de technologies d'IA, la plateforme HuggingFace renferme, par exemple, déjà plus de 5000 modèles préentraînés.
Article rédigé par
Reynald Fléchaux, Rédacteur en chef CIO
Suivez l'auteur sur Twitter
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire