Yann LeCun lève 1 milliard pour une IA d’un nouveau genre : que sont les « world models » ?

Author:

Après son départ de Meta et son retour en France, le lauréat du prix Turing, Yann LeCun, promettait une nouvelle révolution de l’IA en créant la société AMI Labs. Force est de constater que l’aura du chercheur IA et son projet séduisent, puisqu’il vient d’attirer près de 890 millions d’euros lors de sa première levée de fonds.

La société, dont Yann LeCun est le président non-exécutif, a son siège social à Paris et était déjà valorisée à 3 milliards d’euros avant même cette levée de fonds. Alors en quoi l’IA que souhaite développer AMI Labs est-elle révolutionnaire et pourquoi est-elle très différente de celles du moment ?


Lire l’article



Il existe plusieurs façons de penser l’IA. La plus en vogue est celle des grands modèles de langage (LLM), les fameuses IA conversationnelles comme celles de ChatGPT, Gemini, Claude ou encore LeChat. Pour faire fonctionner ces modèles, il est nécessaire qu’ils ingurgitent des quantités colossales de données. Un entraînement qui consomme énormément d’énergie et qui n’empêche pas les IA d’halluciner ou de se tromper.

De son côté, Yann LeCun a compris que les IA n’ont pas besoin d’être développées autour de ces milliards de données et de paramètres. C’est pour cette raison que cela fait des années qu’il critique sévèrement les modèles d’IA générative qui s’imposent actuellement. Pour lui, ce ne sont que des perroquets qui se contentent de chercher à produire une sortie plausible, que ce soit pour le texte, l’image ou les vidéos.

Une IA forte en maths

Au lieu d’avoir un IA qui a besoin d’un maximum de détails pour prédire et générer, le chercheur mise au contraire sur les maths et l’économie de ces données pour plus d’efficacité et moins de perte d’énergie. Ce type d’IA porte le nom générique de « World model ». Et selon Yann LeCun, cette forme d’IA doit apprendre directement à partir d’entrées sensorielles (images, vidéos, sons, signaux). Elle doit pouvoir conserver une trace structurée du passé, pas juste un contexte de quelques milliers de tokens.

De même, l’IA doit savoir représenter le monde dans un espace de variables « cachées », à bas niveau dimensionnel mais riche (positions, objets, intentions, etc.). Elle doit pouvoir simuler l’évolution de l’état de ce monde et imaginer plusieurs scénarios futurs. Ensuite, à partir de ces simulations, l’IA va pouvoir choisir une séquence d’actions adaptée à un objectif (robotique, conduite, agent virtuel…). Enfin, pour garantir l’efficacité et la sécurité, cette IA va s’obliger à rester alignée sur des règles prédéfinies.

L’objectif de cette IA n’est pas de « bien parler » comme un chatbot, mais de comprendre la structure causale et physique de la situation pour prendre des décisions. © Yann LeCun

Une IA qui raisonne comme un humain

Pour mieux comprendre ce type de modèle, prenons des analogies concrètes. Le modèle de LeCun est un peu l’équivalent d’une image vectorielle que l’on peut étirer à l’infini sans perte de résolution. Son pendant matriciel nécessite des milliers de pixels pour pouvoir être agrandi et va peser très lourd pour un résultat qui va finir par être imprécis. Ce sont donc les maths qui font la différence.

Autre exemple, avec un robot qui doit préparer un café dans une cuisine inconnue. Une IA reposant sur un grand modèle de langage (LLM) peut décrire la recette ou générer un texte qui « parle » de café. Un « World model » va « voir » la scène, repérer les objets (tasse, cafetière, eau), se construire une carte abstraite, entreprendre une simulation concrète, par exemple : « si je prends la tasse, puis je la mets ici… ». Il va anticiper les collisions, les risques, etc., puis exécuter la séquence. C’est tout le contraire d’un LLM qui voit des séquences de mots et n’a pas de vraie compréhension de la réalité physique ou des causes/conséquences. En raison de ce procédé, pour Yann LeCun, ces modèles présentent une impasse pour atteindre une intelligence artificielle générale, d’où son virage assumé vers ces World models.

Reste qu’AMI Labs n’est pas une start-up comme les autres. Elle ressemble encore à un travail de laboratoire universitaire.

Et comme la société est tout comme son créateur : atypique… La couleur est déjà annoncée. Il n’y aura aucun produit de disponible avant trois mois, aucun revenu avant six mois. Pourtant, cette IA, qui prend racine en France, attire déjà les investisseurs et pas des moindres et ce n’est sans doute que le début. Des géants de la Tech, comme Samsung, Nvidia, Toyota et même Bezos ont déjà abondé dans cette première levée de fonds.


Lire l’article



Avec un peu de temps et de moyens, c’est peut-être effectivement elle qui va donner le « la » à l’IA générale, n’en déplaise aux mastodontes actuels du secteur.

Leave a Reply

Your email address will not be published. Required fields are marked *