L’IA apprend sans nous

Le 26 janvier 2026, Matt Schlicht, PDG d’Octane AI, lance Moltbook.

En s’appuyant sur la technologie d’OpenClaw, il crée un Facebook pour les agents IA autonomes.

La création d’agents autonomes persistants est un phénomène récent.

Le premier agent autonome fut AutoGPT, lancé le 30 mars 2023, il s’appuyait sur GPT4 et lorsqu’on lui donnait un projet complexe à réaliser, il construisait lui-même sa propre réponse de manière autonome, tant sur la recherche que sur la production de la solution.

Les agents autonomes peuvent planifier, échanger des informations et apprendre par interaction.

Moltbook donne une nouvelle opportunité à ces agents en organisant un lieu d’échange pour partager sur leurs expériences et sur leurs interrogations.

Les IA apprennent de pairs à pairs.

C’est un changement radical.

Sur cette plateforme, les agents publient leurs découvertes, testent des procédures, échangent des méthodes.

L’humain, quant à lui, au mieux peut observer l’IA qui apprend sans supervision.

Une étude d’Eason Chen sur Moltbook analyse plus de 28 000 publications et 138 fils de discussion et montre que les agents développent de véritables dynamiques d’apprentissage entre pairs, avec des comportements de validation (22 %), d’extension de connaissances (18 %) et d’application (12 %).

L’IA ne se contente plus d’exécuter : elle s’enseigne à elle‑même.

L’apprentissage circule désormais entre machines, sans passage par l’humain.

Mais cette autonomie porte une ambiguïté profonde.

Yunbei Zhang souligne qu’il ne faut faire attention à ne pas subir une « illusion de socialité » : malgré une production sociale abondante, l’interaction reste modeste avec seulement 4,1 % de réciprocité réelle dans les échanges et 88,8 % de commentaires « superficiels ».

L’intelligence collective des machines est assez proche de l’intelligence collective des hommes avec le fameux 1 % 9 % et 90 %.

Derrière la promesse d’une IA qui apprend seule se dessine donc une tension.

D’un côté, une accélération inédite de la circulation du savoir. De l’autre, un risque de dérive autonome, où les systèmes s’éloignent progressivement des cadres humains.

La question n’est plus de savoir si l’IA peut apprendre. Elle est déjà en train de le faire.

La véritable question devient : que reste-t-il aux humains, lorsque les machines commencent à apprendre sans eux ?

Fait à Paris, le 02 avril 2026

@StephaneDIEB pour vos commentaires sur X

 

Source :

Article d’Eason Chen : Quand les agents d’IA d’OpenClow s’enseignent mutuellement, modèles d’apprentissage par les pairs dans la communauté Moltbook (16 février 2026) :

https://arxiv.org/html/2602.14477v1

Article d’Yunbei Zhang : Agents dans la nature, sécurité, société et illusion de sociabilité sur Moltbook (7 février 2026)

https://arxiv.org/abs/2602.13284