Site icon R-bloggers

Vers l’AGI, à pas lents et lucides

[This article was first published on Foundations, and kindly contributed to R-bloggers]. (You can report issue about the content on this page here)
Want to share your content on R-bloggers? click here if you have a blog, or here if you don't.
< ![CDATA[

Cher journal,

Aujourdhui nous sommes le 13 mai 2025, et une question me trotte dans la tte :
Et si lAGI narrivait jamais comme on limagine ?

Je sais, cest une question un peu provocante, presque sacrilge dans un monde o chaque semaine apporte son lot de promesses, de modles rvolutionnaires et dannonces tambour battant. Mais plus je creuse, plus un malaise sinstalle.

Cela fait quelques mois que je veille intensment le sujet de lAGI cette fameuse Intelligence Artificielle Gnrale qui serait cense rivaliser avec lintelligence humaine dans sa polyvalence et son adaptabilit. Mon point de dpart ? Une srie de vidos de Sabine Hossenfelder, physicienne lucide lhumour tranchant, et surtout dnue dillusions marketing.

Premire claque : le modle o3

Dbut janvier, OpenAI lance o3. Buzz immdiat. Les chiffres sont impressionnants :

Sur le papier, tout y est. Pourtant, y regarder de plus prs tout y est justement trop. Trop beau, trop calibr, trop cher (jusqu 3 000 $ pour une tche). Et surtout : trop semblable aux versions prcdentes.

GPT-4.5, Claude 3.7, o3 : tous progressent, mais la marge. Le consensus merge doucement : on atteint les limites du passage lchelle. Les LLMs ne scalent plus de manire significative. Ce nest plus une ligne droite vers lAGI, cest un plateau.

Deuxime claque : la dfinition dAGI elle-mme

Sam Altman le reconnat : AGI est devenu un mot-valise. Chacun y met ce quil veut. Un assistant trs comptent ? Un surhomme numrique ? Une IA qui fait de la physique quantique en coutant Bach ? La confusion rgne, et elle arrange bien les discours marketing.

Sabine pointe un lment crucial : russir un test (mme impressionnant comme ARC-AGI) ne signifie pas comprendre. o3 peut battre des records en reconnaissance de motifs sans rien saisir du sens profond. Cest lillusion dintelligence. Une simulation de rflexion pas la rflexion elle-mme.

Troisime claque : les limites des LLMs

Les LLMs ne comprennent pas. Ils imitent. Et leur imitation a des angles morts criants :

Yann LeCun le dit sans dtour : Ils ne savent pas dbarrasser une table comme un enfant de 10 ans. On y est.

Alors, on fait quoi ?

Cest l que les choses deviennent fascinantes. Loin des projecteurs, une rvolution silencieuse sopre. Deux pistes mergent avec srieux :

  1. Le raisonnement symbolique : injecter de la logique, des structures formelles, une mmoire organise. Cest le retour du noyau pensant. DeepMind exprimente dj avec AlphaProof et le neurosymbolic AI.

  2. Les world models : des modles qui ne prdisent pas juste le prochain mot, mais simulent la dynamique du monde rel. Genie 2 chez DeepMind, Cosmos chez NVIDIA : on parle ici dintelligence incarne, dapprentissage dans des mondes simuls, de cognition situe.

Et l, enfin, il y a de la substance. Il ne sagit plus dagrandir une bote noire, mais de la repenser.

Mon point de vue ? Un tournant pistmologique

Ce que je sens, cest quon quitte une phase quantitative pour entrer dans une phase qualitative.
Fini les records creux, place aux explorations profondes. Les annes 2010 ont t celles du passage lchelle. Les annes 20252030 pourraient bien tre celles de la redcouverte des fondements de lintelligence.

LAGI narrivera pas par surprise, dans une update mineure dun LLM. Elle mergera peut-tre, un jour, dun agencement fin entre perception, action, mmoire, logique et modestie algorithmique.

Je termine ce billet avec cette intuition :
LAGI ne sera pas une explosion. Ce sera une cristallisation.
Silencieuse, patiente, mthodique. Comme la recherche, en somme.
Et cest peut-tre pour le mieux.

]]>
To leave a comment for the author, please follow the link and comment on their blog: Foundations.

R-bloggers.com offers daily e-mail updates about R news and tutorials about learning R and many other topics. Click here if you're looking to post or find an R/data-science job.
Want to share your content on R-bloggers? click here if you have a blog, or here if you don't.
Exit mobile version