Aller au contenu
Yann LeCun, le Français qui dit non au ChatGPT-isme

Yann LeCun, le Français qui dit non au ChatGPT-isme

Pendant que la Silicon Valley vend l’IA générative comme l’horizon indépassable de l’intelligence, un type né à Soisy-sous-Montmorency répète depuis cinq ans que tout le monde se trompe de chemin. Et il a probablement raison.


Le mec que personne n’écoute (sauf quand il a le prix Turing)

Yann LeCun, c’est cette figure agaçante pour la hype : un Français, prix Turing 2018 — l’équivalent du Nobel en informatique — patron de la recherche IA chez Meta, et accessoirement l’un des trois pères fondateurs du deep learning moderne. Le genre de CV qui devrait faire taire une salle.

Sauf que depuis l’explosion de ChatGPT fin 2022, LeCun passe son temps à dire la même chose, calmement, sur les réseaux, dans des conférences, dans des papiers : les grands modèles de langage sont une impasse. Pas un mauvais outil — une impasse, si l’objectif est de construire une vraie intelligence.

Et personne ne veut l’entendre. Parce que ça n’arrange personne. Ni les investisseurs qui ont mis des dizaines de milliards sur OpenAI. Ni les médias qui adorent le récit messianique. Ni les boîtes américaines qui ont besoin que l’histoire continue encore quelques années pour amortir leurs montagnes de cartes graphiques.

Le problème avec les LLM, version pas-prise-de-tête

Imaginez un perroquet surdoué qui aurait lu tout internet. Il peut recracher du Shakespeare, du code informatique, des dissertations sur Spinoza. Impressionnant. Mais posez-lui une vraie question physique — si je lâche ce verre, qu’est-ce qui se passe ? — et il répond bien, non pas parce qu’il comprend la gravité, mais parce qu’il a lu mille fois la phrase « le verre tombe ».

C’est exactement ce que fait ChatGPT. Il prédit le mot suivant. Statistiquement. Sans modèle interne du monde. Sans comprendre qu’un objet ne traverse pas un autre, qu’une cause précède un effet, qu’une promesse engage. Il mime la compréhension avec une précision affolante. Mais sous le capot, il n’y a personne.

LeCun le résume par une phrase qui devrait être placardée dans toutes les rédactions : un chat domestique a une compréhension du monde physique infiniment supérieure à GPT-4. Et il a raison. Un chat sait planifier un saut entre deux meubles, anticiper la chute d’un objet, ajuster sa trajectoire en vol. GPT non. GPT n’a jamais vu un meuble. Il n’a vu que des phrases qui parlent de meubles.

JEPA : l’idée qui dérange

Alors LeCun propose autre chose. Ça s’appelle JEPAJoint Embedding Predictive Architecture. Traduction artisanale : une architecture qui apprend à prédire, non pas le prochain pixel ou le prochain mot, mais une représentation abstraite de ce qui vient ensuite.

L’intuition est belle. Quand on regarde une vidéo d’un verre qui tombe, on n’a pas besoin de prédire chaque pixel exact du verre brisé. On prédit l’idée : ça va se casser. Le cerveau travaille dans un espace de concepts, pas de pixels. JEPA fait pareil.

Le résultat ? Des modèles petits — quelques dizaines de millions de paramètres au lieu de centaines de milliards — rapides, entraînables en quelques heures sur un seul ordinateur, capables d’apprendre la physique du monde à partir de vidéos brutes, sans qu’on leur explique rien. Un papier récent baptisé LeWorldModel, signé par une équipe franco-canadienne autour de LeCun, montre qu’un JEPA bien fichu planifie 48 fois plus vite que les modèles « fondation » géants à la mode. Avec une carte graphique qui tient dans un PC ordinaire.

Vous réalisez ce que ça signifie ? Pendant que Sam Altman explique qu’il lui faut sept mille milliards de dollars pour construire l’intelligence artificielle générale, un labo public sort un modèle qui tourne sur une tour de gamer, gratuit, ouvert, sous licence libre.

Pourquoi ça nous concerne tous

On pourrait se dire : cool, mais c’est un débat de chercheurs, qu’est-ce que ça change pour le quidam ? Énormément.

Parce que la course aux LLM géants, c’est avant tout une machine à concentrer le pouvoir. Seules cinq entreprises américaines peuvent se payer les centres de données pour les entraîner. Seules elles décident de ce qu’on peut demander, de ce qui est censuré, de ce qui est facturé. Chaque requête envoyée à ChatGPT nourrit Microsoft. Chaque requête à Gemini nourrit Google. Et la loi américaine — le fameux Cloud Act — peut tout réquisitionner du jour au lendemain, où que se trouvent les serveurs.

JEPA change la donne. Un modèle de quelques dizaines de millions de paramètres, c’est souverain par construction. On le télécharge, on le fait tourner chez soi ou dans un labo européen, personne ne sait, personne ne facture, personne ne censure. C’est l’IA qui rentre dans la même catégorie que les logiciels libres : un commun numérique qu’on n’a pas à mendier auprès d’une multinationale.

Et c’est un Français qui pousse cette idée. Pas par patriotisme — LeCun travaille pour Meta, soyons honnêtes — mais parce qu’il sait que la science avance par diversité d’approches, et que mettre tous ses œufs dans le même panier technique est une connerie historique.

La résistance silencieuse

Le plus beau, dans cette histoire, c’est qu’elle se déroule en sourdine. Pas de keynote à paillettes, pas de levée de fonds à dix milliards, pas de patron en larmes devant le Sénat américain. Juste des chercheurs qui publient des papiers en accès libre, du code sur des dépôts publics, des jeux de données sur des serveurs universitaires. Mila à Montréal. Meta AI à Paris. Quelques laboratoires européens. Un écosystème qui refuse de jouer au poker menteur de la Silicon Valley.

Ce qui est frappant, c’est que c’est exactement la même logique que le logiciel libre des années 90. À l’époque, tout le monde répétait que Linux ne survivrait pas à Windows, que c’était un truc de barbus marginaux. Aujourd’hui, Linux fait tourner internet, les téléphones Android, les serveurs de ceux-là mêmes qui se moquaient de lui. La revanche a été lente, mais elle a été totale.

JEPA est peut-être en train de devenir le Linux de l’IA. Discret, technique, méprisé par la presse mainstream qui ne sait écrire que sur ChatGPT. Et pourtant, dans quelques années, c’est peut-être cette ligne-là qui aura compté, pas les délires prophétiques d’OpenAI.

Ce qu’il faut retenir

Yann LeCun n’a pas raison parce qu’il est Français. Il a raison parce qu’il dit une chose simple que la hype refuse d’entendre : prédire le mot suivant n’est pas comprendre. Et que pour fabriquer des machines vraiment utiles — des machines qui aident, qui planifient, qui se trompent peu — il faut leur donner quelque chose qui ressemble, même de loin, à un modèle du monde.

Ça demande de la patience. De la science lente. Des petits modèles qu’on comprend. Des architectures qu’on critique. C’est l’inverse exact de la course actuelle aux paramètres et aux milliards.

C’est aussi, accessoirement, le seul chemin qui laisse une chance à l’Europe d’exister dans cette histoire autrement qu’en consommatrice servile.

Alors la prochaine fois qu’on vous explique que l’IA c’est ChatGPT et puis basta, pensez à ce type qui répète depuis cinq ans, calmement, qu’il y a une autre route. Et qui la trace, ligne de code après ligne de code, pendant que les autres font du marketing.


Pour aller plus loin

Si vous voulez creuser le sujet par vous-mêmes — et c’est vivement recommandé, parce que ce genre de débat ne devrait pas rester confiné aux laboratoires — voici les sources directes :

  • Le papier LeWorldModel est en accès libre sur arXiv : https://arxiv.org/abs/2603.19312 arXiv. Il est signé par Lucas Maes et Quentin Le Lidec (Mila & Université de Montréal et NYU), Damien Scieur (Mila & Samsung SAIL), Yann LeCun (NYU) et Randall Balestriero (Brown University) arXiv. Lecture technique mais accessible avec un peu de patience.
  • Le code source complet, sous licence libre MIT, est publié sur GitHub : https://github.com/lucas-maes/le-wm github. N’importe qui peut le télécharger, le faire tourner, le modifier, le rediffuser. C’est la définition même d’un commun numérique.
  • Le site officiel du projet propose une présentation visuelle plus digeste, avec animations et démonstrations : https://le-wm.github.io.
  • Pour comprendre la pensée de Yann LeCun dans son ensemble — pas seulement JEPA — sa page personnelle à NYU regroupe ses publications, ses conférences et ses prises de position : https://yann.lecun.com. Il intervient régulièrement en français dans des conférences au Collège de France et à l’Académie des sciences, dont les enregistrements sont disponibles librement.
  • Pour suivre la recherche en IA souveraine côté français, le site de l’Inria (https://www.inria.fr) et celui de Mila à Montréal (https://mila.quebec) publient régulièrement des travaux qui ne sont pas relayés par la presse mainstream.

Laisser une réaction

Votre adresse e-mail ne sera pas publiée. Promis, on ne vend rien.