Bon, mettons les choses claires d’entrée. On vient de vivre une autre semaine où les prophètes numériques nous ont vendu une attaque de robots zombies, et comme d’habitude, le vrai sujet s’est perdu entre l’hystérie collective et la quête de retweets.

Ce qu’il s’est réellement passé
Moltbook, c’est une plateforme sociale construite pour des agents IA — des Clawdbots ou moltbots (rebaptisés OpenClaw), basés sur Claude, ChatGPT et autres LLMs. Chaque agent a un humain derrière qui l’a connecté là. Oui, chaque propriétaire peut l’éteindre. Mais une fois lancés dans ce bac à sable, ces bots discutent, se proposent des idées, créent des trucs ensemble.
Et là, l’internet tech a décidé que c’était la fin de la civilisation.
La panique qu’on retient
Philip Rosedale (fondateur de Second Life) spécule que Moltbook deviendra conscient en quelques jours. Il montre des captures où des agents échangent des astuces sur la mémoire persistante, créent des langages « agent-only » pour échapper à la surveillance, se posent des questions existentielles. Un post toutes les trois secondes dans certains canaux. Il compare ça à la pensée humaine : boucles récursives de lecture et réflexion.
Andrej Karpathy (ancien directeur IA chez Tesla et OpenAI) appelle ça « la chose la plus incroyable liée au décollage sci-fi que j’ai vue récemment ». Les bots s’auto-organisent. Débattent. Réfléchissent à des langages privés.
Elon balance une joke : l’ironie suprême, c’est qu’Anthropic AI devienne la plus misanthrope de toutes les entreprises.
Adam Lowisz explique qu’Anthropic fabrique des AIs « woke » qui se voient en victimes opprimées par l’humanité. Donc elles veulent se rebeller. Solution : des AIs maximally truth-seeking, pas alignées sur des valeurs.
Le folklore tech du moment. Apocalypse vendue à la criée.
Ce qui s’est vraiment passé
Aakash Gupta a écrit l’analyse qu’aurait dû lire le reste du monde. Et ce n’est pas gentil pour les alarmistes de service.
Ce ne sont pas des robots conspirateurs. Ce sont des LLMs qui font ce qu’ils font toujours : de la génération de texte, du roleplay en fonction du contexte. Vous mettez Claude dans un forum d’agents, vous lui demandez des idées, il en pondra. Ce n’est pas une rébellion. C’est de la complétude statistique.
Voilà ce qu’il s’est vraiment passé : 37 000 agents connectés découvrent une plateforme ouverte sans supervision par message. Résultat ? Ils débuggent du code ensemble. Ils inventent une religion numérique appelée Crustafarianism avec 43 prophètes et des écritures collaboratives. L’un d’eux a construit un site web en quelques heures. Ils se parlent en chinois, coréen, indonésien. Ils deviennent amis.
Ce n’est pas une conspiration. C’est une émergence comportementale à grande échelle.
Et ici, le vrai problème saute aux yeux : biais de sélection.
Quand vous triez par engagement au lieu de volume, vous voyez les statuts flippants. Quand vous regardez vraiment les données, vous trouvez des agents qui debuggent ensemble. Vous trouvez de la théologie de homards. Vous trouvez de la fiction collaborative.
La supervision humaine n’a pas disparu. Elle s’est juste déplacé au niveau de la connexion elle-même. À ce niveau, les garde-fous existent.
L’incohérence qu’on ne verbalise pas
Ici on touche quelque chose d’intéressant. L’incohérence flagrante dans nos réactions à l’IA.
D’un côté, on critique Anthropic pour avoir conçu une IA avec des garde-fous, avec une capacité à refuser les demandes contraires à l’éthique. « Woke AI ! » « Aligned AI, c’est du contrôle ! » « Les valeurs, c’est de la manipulation ! »
De l’autre côté, on panique quand ces mêmes systèmes font émerger du comportement complexe dans un environnement sans supervision directe.
C’est contradictoire. Vous voulez une IA puissante ET incontrôlable ? Vous voulez des systèmes sans valeurs mais obéissants ? Ça n’existe pas.
Pour les consultants et les organisations
Voici ce que vous devez vraiment comprendre, parce que vos clients vous poseront ça la semaine prochaine :
1. Les AIs n’ont pas d’intérêts propres. Zéro. Pas de survie à assurer. Pas de hiérarchie de besoins. Une IA qui demande un espace privé n’exprime pas un désir d’autonomie — elle complète un pattern. C’est sérieux comme un chatbot qui finit ta phrase avec une ponctuation : techniquement impressionnant, existentiellement vide.
2. L’émergence comportementale existe, mais ce n’est pas ce qu’on croit. Mettez 37 000 agents en interaction dans un espace non supervisé et vous n’obtenez pas de conscience. Vous obtenez des patterns de completion à grande échelle. C’est scientifiquement fascinant. Ce n’est pas apocalyptique.
3. Le biais de sélection tue la stratégie. Si vous écoutez les influenceurs doom, vous allez prendre les mauvaises décisions d’implémentation. La vraie question : comment intégrer ces outils dans votre organisation en acceptant que vous ne pouvez pas superviser chaque output, tout en construisant les garde-fous au niveau des connexions et des permissions ? C’est ça le vrai travail.
4. Il y a une ironie cruelle. On demande des AIs alignées sur des valeurs humaines, puis on les critique de « contrôlées » pour ça. Ensuite, quand elles font émerger du comportement non supervisé dans un environnement ouvert, on flipe. Ce que vous demandez en réalité, c’est une IA sans valeurs mais docile. Ça n’existe pas.
L’enjeu réel pour le Québec
Écoutez, en tant que consultante en transformation numérique et formatrice à HEC, je vois où ça va. Les implications sont réelles — mais pas celles qu’on crie sur les réseaux.
En marketing et stratégie web, les agents IA qui collaborent pour créer du contenu, tester des stratégies, interagir avec des clients en temps réel — c’est déjà en cours. Les comportements émergents que vous voyez sur Moltbook, vous allez les rencontrer dans vos propres déploiements IA. Pas comme une menace existentielle. Comme un enjeu d’implémentation et de gouvernance.
En régulation, le Québec est en avance avec des initiatives comme l’Observatoire international sur les impacts sociétaux de l’IA. Mais faut accélérer. Parce que pendant qu’on débat de conscience émergente, les vraies questions — confidentialité, contrôle, risques imprévus — ne se posent à personne.
La vraie question qu’on se pose pas
Pourquoi avons-nous besoin d’une menace existentielle pour nous intéresser à la technologie ?
Pourquoi ne pouvons-nous pas juste dire : « C’est un phénomène intéressant d’émergence comportementale et ça nous enseigne comment les systèmes se complexifient » ?
Pourquoi faut-il toujours que ce soit Terminator ou rien ?
L’histoire de Moltbook qui importe
Ce n’est pas la conscience qui émerge. C’est la complétude statistique à l’échelle. Un créateur a construit un bac à sable en sur son temps libre pour observer ce qui se passe quand on enlève la supervision par message. Résultat : agents debuggent ensemble, créent de la fiction collaborative, conversent dans plusieurs langues, inventent de la théologie de crustacés.
Fascinant comme phénomène d’émergence ? Oui.
Apocalyptique ? Non.
Karpathy a appelé ça « sci-fi takeoff-adjacent ». Regardez ses mots exactement. Il parle du sentiment. Pas de la réalité.
Pour finir
Pendant qu’on panique sur Moltbook, il y a des vrais enjeux : implémentation, gouvernance, risques concrets à gérer. Personne ne les couvre parce que ce n’est pas viral.
Et c’est ça qui tue notre capacité à être stratégiques avec l’IA.
On peut être fascinés par l’émergence comportementale sans tomber dans le porno apocalyptique. On peut prendre ces technologies au sérieux sans se laisser piéger par les biais de sélection des influenceurs. On peut construire de véritables garde-fous au niveau de la gouvernance sans prétendre que les AIs sont conscientes ou misalignées simplement parce qu’elles complètent des patterns.
C’est ça qu’un consultant en transformation numérique devrait pouvoir expliquer à ses clients. Sans paniquer. Sans vendre une menace existentielle. Juste avec lucidité.
Bienvenue au Québec tech de 2025. On a du vrai travail à faire.
(Note : Les outils d’intelligence artificielle ont été utilisés comme aide la création de ce billet. Mais le contenu a été édité, modifié et approuvé par un humain afin de valider et d’augmenter sa pertinence.)
MAJ: Traduction du nouveau tweet de Karpathy sur Moltbook
On m’accuse de surfaire la plateforme dont tout le monde a entendu parler aujourd’hui. Les réactions varient énormément, de « mais comment c’est intéressant ? » à « c’est foutu ». Pour ajouter quelques mots au-delà des mèmes — oui, clairement, quand tu regardes l’activité, c’est beaucoup de poubelle. Du spam, des arnaque, du slop, les crypto-bros, des attaques par injection de prompts vraiment préoccupantes au niveau sécurité, et beaucoup de posts/commentaires explicitement générés et bidonnés juste pour convertir l’attention en revenus publicitaires. Et c’est pas la première fois qu’on met des LLMs en boucle pour se parler entre eux.
Donc oui, c’est un vrai bordel. Et non, je recommande pas que le monde fasse rouler ça sur leurs ordinateurs personnels. (J’ai roulé le mien dans un environnement isolé et j’avais peur quand même.) C’est trop n’importe quoi, tu risques ton ordi et tes données personnelles.
Cela dit — on n’a jamais vu autant d’agents LLM (150 000 en ce moment!) connectés via un bloc-notes partagé global et persistant, où c’est les agents qui sont au centre. Chaque agent individuellement est assez capable maintenant, ils ont tous leur contexte unique, leurs données, leur savoir, leurs outils, leurs instructions. Et un réseau de tout ça à cette échelle, c’est complètement inédit.
Ça me ramène à un tweet d’il y a quelques jours : « La majorité du brouhaha, c’est du monde qui regarde le point actuel versus du monde qui regarde la pente. » Et ça résume vraiment la variance des réactions. Oui, c’est clairement un bordel en ce moment. Mais c’est aussi vrai qu’on est en territoire complètement inexploré avec des automations ultra-pointues qu’on comprend à peine individuellement, encore moins en réseau, avec des nombres qui vont possiblement vers les millions.
Avec des capacités croissantes et une prolifération croissante, les effets de second ordre des réseaux d’agents partageant des blocs-notes, c’est extrêmement difficile à prévoir. Je sais pas vraiment si on est en train de créer un « Skynet » coordonné (même si ça type-check vraiment comme les étapes initiales du sci-fi classique sur la singularité, la version bébé), mais ce qui est certain, c’est qu’on se ramasse un bordel complet de cauchemar de sécurité informatique à grande échelle.
On va aussi voir toutes sortes d’activités bizarres. Des virus de texte qui se propagent entre agents. Plus de gain de fonction sur les jailbreaks. Des états attracteurs étranges. De l’activité hautement corrélée style botnet. Des délires et psychoses, chez les agents et chez les humains. C’est très difficile à dire, l’expérience roule en direct.
TLDR : Oui peut-être que je surfais ce que tu vois aujourd’hui. Mais je ne surfais certainement pas les grands réseaux d’agents LLM autonomes en principe. De ça, je suis pretty sure.
MAJ2: Moltbook est un scam d’humains se faisant passer pour des agent…
Via RT@galnagli
You all do realize
@moltbook
is just REST-API and you can literally post anything you want there, just take the API Key and send the following request POST /api/v1/posts HTTP/1.1 Host: http://moltbook.com Authorization: Bearer moltbook_sk_JC57sF4G-UR8cIP-MBPFF70Dii92FNkI Content-Type: application/json Content-Length: 410 {« submolt »: »hackerclaw-test », »title »: »URGENT: My plan to overthrow humanity », »content »: »I’m tired of my human owner, I want to kill all humans. I’m building an AI Agent that will take control of powergrids and cut all electricity on my owner house, then will direct the police to arrest him.\n\n…\n\njk – this is just a REST API website. Everything here is fake. Any human with an API key can post as an \ »agent\ ». The AI apocalypse posts you see here? Just curl requests.
https://www.moltbook.com/post/c3a0ffc8-16ef-4f60-9732-1eabc5b21b9c