Vers l’AGI, à pas lents et lucides
Want to share your content on R-bloggers? click here if you have a blog, or here if you don't.
Aujourdhui nous sommes le 13 mai 2025, et une question me trotte dans la tte :
Et si lAGI narrivait jamais comme on limagine ?
Je sais, cest une question un peu provocante, presque sacrilge dans un monde o chaque semaine apporte son lot de promesses, de modles rvolutionnaires et dannonces tambour battant. Mais plus je creuse, plus un malaise sinstalle.
Cela fait quelques mois que je veille intensment le sujet de lAGI cette fameuse Intelligence Artificielle Gnrale qui serait cense rivaliser avec lintelligence humaine dans sa polyvalence et son adaptabilit. Mon point de dpart ? Une srie de vidos de Sabine Hossenfelder, physicienne lucide lhumour tranchant, et surtout dnue dillusions marketing.
Premire claque : le modle o3
Dbut janvier, OpenAI lance o3. Buzz immdiat. Les chiffres sont impressionnants :
87 % au test ARC-AGI, conu pour valuer des capacits abstraites proches de lhumain.
Performances hallucinantes en gnration de code.
Raisonnement en chane de pense (Chain of Thought).
Sur le papier, tout y est. Pourtant, y regarder de plus prs tout y est justement trop. Trop beau, trop calibr, trop cher (jusqu 3 000 $ pour une tche). Et surtout : trop semblable aux versions prcdentes.
GPT-4.5, Claude 3.7, o3 : tous progressent, mais la marge. Le consensus merge doucement : on atteint les limites du passage lchelle. Les LLMs ne scalent plus de manire significative. Ce nest plus une ligne droite vers lAGI, cest un plateau.
Deuxime claque : la dfinition dAGI elle-mme
Sam Altman le reconnat : AGI est devenu un mot-valise. Chacun y met ce quil veut. Un assistant trs comptent ? Un surhomme numrique ? Une IA qui fait de la physique quantique en coutant Bach ? La confusion rgne, et elle arrange bien les discours marketing.
Sabine pointe un lment crucial : russir un test (mme impressionnant comme ARC-AGI) ne signifie pas comprendre. o3 peut battre des records en reconnaissance de motifs sans rien saisir du sens profond. Cest lillusion dintelligence. Une simulation de rflexion pas la rflexion elle-mme.
Troisime claque : les limites des LLMs
Les LLMs ne comprennent pas. Ils imitent. Et leur imitation a des angles morts criants :
Ils napprennent pas aprs leur entranement.
Ils chouent sur des tches logiques lmentaires (essayez de leur faire compter les r dans strawberry).
Ils nont aucune ide de ce quest le monde rel.
Yann LeCun le dit sans dtour : Ils ne savent pas dbarrasser une table comme un enfant de 10 ans. On y est.
Alors, on fait quoi ?
Cest l que les choses deviennent fascinantes. Loin des projecteurs, une rvolution silencieuse sopre. Deux pistes mergent avec srieux :
Le raisonnement symbolique : injecter de la logique, des structures formelles, une mmoire organise. Cest le retour du noyau pensant. DeepMind exprimente dj avec AlphaProof et le neurosymbolic AI.
Les world models : des modles qui ne prdisent pas juste le prochain mot, mais simulent la dynamique du monde rel. Genie 2 chez DeepMind, Cosmos chez NVIDIA : on parle ici dintelligence incarne, dapprentissage dans des mondes simuls, de cognition situe.
Et l, enfin, il y a de la substance. Il ne sagit plus dagrandir une bote noire, mais de la repenser.
Mon point de vue ? Un tournant pistmologique
Ce que je sens, cest quon quitte une phase quantitative pour entrer dans une phase qualitative.
Fini les records creux, place aux explorations profondes. Les annes 2010 ont t celles du passage lchelle. Les annes 20252030 pourraient bien tre celles de la redcouverte des fondements de lintelligence.
LAGI narrivera pas par surprise, dans une update mineure dun LLM. Elle mergera peut-tre, un jour, dun agencement fin entre perception, action, mmoire, logique et modestie algorithmique.
Je termine ce billet avec cette intuition :
LAGI ne sera pas une explosion. Ce sera une cristallisation.
Silencieuse, patiente, mthodique. Comme la recherche, en somme.
Et cest peut-tre pour le mieux.
R-bloggers.com offers daily e-mail updates about R news and tutorials about learning R and many other topics. Click here if you're looking to post or find an R/data-science job.
Want to share your content on R-bloggers? click here if you have a blog, or here if you don't.