Et si le vrai problème de l’intelligence artificielle n’était pas dans ses modèles, mais dans l’ADN même de ses processeurs? Et si l’avenir de l’IA n’était pas un cerveau géant, mais une société de cerveaux spécialisés qui se parlent? C’est la thèse radicale d’Arun Majumdar, fondateur de Permion, que plusieurs ont commencé à écouter très attentivement.

Divulgation : Proactive Risk Management est mon client. Permion est un partenaire stratégique associé à PARMINC. Ce billet reflète ma lecture sincère et indépendante de leur technologie, mais vous méritez de le savoir dès le départ.
Le problème que tout le monde connaît, mais que personne ne résout vraiment
Vous avez certainement entendu l’histoire. Un avocat soumet au tribunal des références jurisprudentielles générées par ChatGPT — des causes qui n’existent tout simplement pas. Un médecin fait confiance à une IA qui cite une étude médicale complètement inventée. Ce phénomène porte un nom : les hallucinations. Dans le jargon de l’intelligence artificielle, on dit qu’un modèle « hallucine » lorsqu’il génère avec aplomb une information fausse, fabriquée de toutes pièces.
Ce n’est pas un bug qu’on peut corriger avec une mise à jour. C’est une limitation structurelle des modèles de langage actuels — les fameux LLM (Large Language Models) comme GPT ou Claude. Ces systèmes fonctionnent par reconnaissance de patterns statistiques dans d’immenses corpus de textes. Ils « devinent » la suite logique d’une phrase selon ce qu’ils ont vu des millions de fois. Brillants pour imiter, beaucoup moins fiables pour raisonner.
Et surtout, ils ont un rapport très partiel à la réalité. Demandez-leur de gérer des situations complexes du monde réel — « recueille des faits de sources contradictoires, résout les conflits, piste ce qui est incertain, coordonne plusieurs étapes dans le temps, récupère quand quelque chose échoue » — et ils montrent rapidement leurs limites. Ces systèmes donnent des réponses. Ils n’exécutent pas des solutions. La nuance est immense.
L’ADN caché de tout ordinateur : l’Architecture d’Ensemble d’Instructions
Pour comprendre pourquoi Permion est différent, il faut saisir un concept fondamental que vous n’avez probablement jamais entendu : l’ISA, ou Instruction Set Architecture — l’Architecture d’Ensemble d’Instructions. Tout processeur est construit autour d’un ISA. C’est l’ADN du processeur : le dictionnaire de toutes les opérations élémentaires que la puce peut effectuer.
Le problème? Les ISA de tous nos processeurs actuels — Intel, ARM, NVIDIA — ont été conçus pour une logique déterministe. Ils définissent la « correction » d’un résultat bit par bit : une opération est soit juste, soit fausse. Il n’y a pas de « à peu près ». Or l’IA fonctionne sur un principe fondamentalement différent : la probabilité. Un LLM ne calcule pas la « bonne » réponse — il calcule la réponse la plus probable. Cette friction fondamentale entre le langage de l’IA et le langage des puces sur lesquelles elle tourne génère un gaspillage colossal — en énergie, en temps de calcul, et en fiabilité.
« L’IA atteint un mur d’énergie et de performance par watt — pas un mur de puissance brute de calcul. » — Arun Majumdar, Permion
L‘équipe de Permion a identifié la cause profonde : dans les réseaux de neurones profonds, déplacer des données coûte beaucoup plus d’énergie que de calculer dessus. Un accès mémoire hors puce peut consommer plusieurs ordres de grandeur plus d’énergie qu’une simple opération arithmétique. La vraie inefficacité de l’IA n’est pas dans ses calculs — c’est dans le mouvement des données. Et ce problème commence au niveau de l’ISA, pas des modèles.
Deux cerveaux, puis une société entière : la vision neurosymbolique de Permion
Avant d’expliquer la solution de Permion, il faut comprendre deux concepts qui s’emboîtent comme des poupées russes.
Premier concept : la neurosymbolique. Imaginez deux types de pensée humaine. La première est intuitive : vous voyez un visage et reconnaissez instantanément une émotion. La deuxième est logique : vous résolvez un problème de mathématiques, vous vérifiez un contrat clause par clause. Les LLM actuels ne font que le premier type. La neurosymbolique marie les deux : la reconnaissance de patterns par les réseaux de neurones, et le raisonnement formel, logique, vérifiable. Un système qui perçoit ET qui prouve.
Deuxième concept, encore plus ambitieux : le Pi Calcul. C’est un cadre mathématique formel pour décrire des systèmes distribués où de nombreux processus indépendants communiquent entre eux — et peuvent reconfigurer leurs patterns de communication à la volée. En langage quotidien, c’est la chorégraphie d’une conversation entre les différentes parties d’un système : qui parle à qui? Que se dit-on? Que se passe-t-il si un composant tombe en panne ou est remplacé? Comment s’assurer que l’ensemble se comporte correctement malgré tout?
Pourquoi est-ce révolutionnaire pour l’IA? Parce que l’avenir de l’IA n’est pas « un seul modèle pour gouverner tout ». C’est une équipe de capacités spécialisées — des agents qui récupèrent des informations, d’autres qui planifient, d’autres qui simulent, d’autres encore qui vérifient et contrôlent la sécurité — travaillant ensemble. Le Pi Calcul fournit le langage mathématique pour décrire et raisonner sur ces interactions.
Le XVM™ est une machine virtuelle conçue pour faire tourner l’IA non pas comme un cerveau monolithique unique, mais comme une société coordonnée d’agents aux comportements bien définis, dotés de mémoire, qui communiquent — fondée sur des mathématiques qui rendent ces comportements précis, testables et fiables.
Concrètement, imaginez une IA qui vous aide à gérer une décision complexe — un choix d’investissement, un diagnostic médical, une stratégie d’entreprise. Un agent recueille les faits, un autre identifie les options, un troisième vérifie les contraintes légales, un quatrième simule les scénarios, un cinquième explique les compromis en langage humain. Ce n’est plus « interroger l’oracle » — c’est assembler une équipe d’experts numériques de confiance.
Les Smart Tokens : quand un token devient une particule intelligente
Au cœur de la technologie XVM™ se trouve une innovation que le fondateur de Permion appelle les Smart Tokens — et c’est ici que la physique rencontre l’IA d’une façon inattendue.
Pour comprendre l’enjeu, il faut savoir ce qu’est un token. Dans les LLM actuels, un token est simplement un fragment de texte — un mot, une syllabe, un morceau de mot. Toute l’IA fait des statistiques sur ces fragments. Le problème : si les tokens ne représentent que du texte naturel, le système doit tout résoudre par des approximations numériques probabilistes denses. C’est coûteux en énergie, c’est lent, et c’est là que naissent les hallucinations.
Permion réinvente le token de fond en comble. Dans le XVM™, les tokens ne sont pas de simples fragments de texte — ce sont des ponts intelligents entre la perception neurale et le raisonnement symbolique. Un Smart Token peut encoder non seulement du texte, mais aussi des opérateurs logiques, des types de données, des pointeurs, des contraintes, des clés de récupération dans une base de données externe, des frontières d’appel de fonctions.
Plus fascinant encore : Majumdar décrit ses modèles d’IA comme reposant sur la théorie des champs physiques. Les tokens se comportent comme des particules virtuelles soumises à des attracteurs et des répulseurs dans un champ dynamique — une connexion profonde à la fois aux modèles de diffusion et à l’auto régression, mais avec une différence fondamentale : les prédicats logiques y sont représentés, ce qui permet d’y intégrer des prouveurs de théorèmes. L’IA peut ainsi fournir des preuves de ses résultats.
Le résultat pratique est élégant : quand un token encode une référence à un module symbolique ou à une base de données externe, le système peut router ce morceau de travail vers un calcul discret et exact — beaucoup moins énergivore que de le faire traiter par un réseau neuronal dense. Moins de tokens traversent les couches d’attention coûteuses. L’énergie est économisée non pas en optimisant le modèle existant, mais en éliminant structurellement le travail superflu.
Le clonage de l’expertise humaine : préserver ce qui ne s’enseigne pas
L’un des articles les plus révélateurs d’Arun Majumdar aborde un problème que chaque organisation connaît mais que presque personne ne résout vraiment : que se passe-t-il quand votre expert le plus précieux prend sa retraite ou quitte l’entreprise?
Les organisations traitent généralement les données comme l’actif primaire de leur transformation IA. Mais l’actif le plus rare et le plus précieux est souvent l’expertise détenue par leurs personnels seniors. Cette expertise est tacite — elle réside dans des jugements, des heuristiques informelles, des politiques non écrites. Elle est vulnérable à la perte par roulement, retraite, et silos organisationnels. Et on ne peut pas la capturer en demandant à un LLM de lire des documents : l’expertise humaine, ce n’est pas prédire le prochain token dans un processus séquentiel.
« Les humains pensent à la fois en séquence et en parallèle, avec une variété d’idées qui peuvent avoir des lacunes, mais qui finissent par se condenser en énoncés concrets. » — Arun Majumdar
La technologie neurosymbolique de Permion s’attaque précisément à cet angle mort. Elle représente l’expertise non pas comme un ensemble de données à mémoriser, mais comme un modèle IA dynamique — construit en temps réel à partir des interactions et observations de l’humain expert. Ce modèle encode des relations logiques en logique du premier ordre complète, des graphes de connaissance, des flux de travail, des règles de politique et de gouvernance, des chaînes de causalité.
Le résultat : une mémoire institutionnelle qui peut être inspectée, auditée, mise à jour, et améliorée avec le temps — un actif qui se bonifie plutôt que de se dégrader. Imaginez une banque, un cabinet d’ingénieurs ou une agence gouvernementale qui peut conserver l’expertise de ses meilleurs analystes sous forme de modèles d’IA réutilisables, vérifiables, et explicables. Pas un chatbot — un collègue expert numérique avec une mémoire institutionnelle intacte.
Zéro hallucination : une promesse architecturale, pas marketing
L’une des affirmations les plus spectaculaires de Permion est celle du « zéro hallucination ». Comment est-ce possible là où tous les autres échouent?
La réponse est dans l’architecture même. Quand un LLM traditionnel génère une réponse, il n’a aucun mécanisme interne pour vérifier si ce qu’il produit est logiquement cohérent. Avec le XVM™, la couche symbolique joue le rôle d’un vérificateur rigoureux intégré : les méthodes symboliques détectent et éliminent les erreurs et incohérences avant qu’elles atteignent l’utilisateur. Et surtout — c’est le point clé — ce mécanisme n’est pas une surcouche ajoutée après coup. Il est natif au niveau de l’ISA elle-même.
Chaque inférence peut retourner non seulement une réponse, mais aussi une chaîne de raisonnement vérifiable — une preuve que le résultat est logiquement cohérent. Ces preuves peuvent même être enregistrées sur une blockchain : chaque décision de l’IA devient un enregistrement immuable, auditable, certifiable. Pour les secteurs soumis à des exigences réglementaires strictes — banques, assurances, défense, santé — c’est transformateur.
Des gouvernements du G7 aux entreprises spécialisées de l’intelligence : une crédibilité rare
On ne s’intéresse pas à Permion dans l’obscurité. La technologie XVM™ fait partie du défi G7 sur l‘IA gouvernementale (G7 GovAI Challenge) — une initiative des pays du G7 pour identifier des solutions IA dignes de confiance pour les administrations publiques. Figurer dans ce périmètre, avec des gouvernements canadien, américain, européen et japonais comme évaluateurs, témoigne d’une crédibilité que peu de startups IA atteignent.
Sur le marché américain, Permion est partenaire avec des, géants de la technologie de défense nationale coté au Fortune 500, pour déployer des solutions IA fiables dans des missions critiques de sécurité nationale. Le XVM™ et le DSME™ (Digital Subject Matter Expert) sont disponibles sur le AWS Marketplace réservé à la communauté du gouvernement — un catalogue certifié, accessible uniquement à des agences gouvernementales sélectionnées.
Ce que ça change concrètement : de votre hôpital à votre ministère
Pourquoi tout cela devrait-il vous importer, si vous n’êtes pas ingénieur en IA?
Parce que la crise de confiance envers l’IA est réelle et grandissante. Des hôpitaux qui hésitent à adopter l’IA de peur des diagnostics erronés. Des tribunaux qui refusent les preuves générées par IA. Des entreprises qui craignent d’exposer leurs clients à des réponses inventées. Le jour où l’on disposera d’une IA capable d’expliquer chaque décision qu’elle prend, de la tracer et de la prouver mathématiquement — ce jour-là, la confiance pourrait s’installer à grande échelle.
La technologie de Permion vise précisément ce point d’inflexion. Si elle tient ses promesses à grande échelle, elle pourrait transformer des secteurs entiers : la médecine (diagnostics vérifiables et auditables), le droit (analyses contractuelles avec chaînes de raisonnement explicitées), la finance (décisions d’investissement prouvées sur blockchain), l’administration publique (politiques fondées sur des raisonnements transparents, mémoire institutionnelle préservée). Pour les pays — comme le Canada — qui cherchent à bâtir une souveraineté numérique en matière d’IA, une telle technologie représente un levier stratégique de premier plan.
Et la dimension énergétique est tout aussi importante. Dans un contexte de crise climatique et de demande électrique explosive liée à l’IA, supprimer structurellement le gaspillage causé par l’inadéquation fondamentale entre les processeurs et leurs workloads IA — non pas en optimisant les modèles existants, mais en réparant le problème à la racine, au niveau de l’ISA — pourrait avoir un impact comparable à l’invention du transistor.
Conclusion : l’IA qui donne des réponses, et l’IA qui exécute des solutions
Arun Majumdar pose une question qui semble presque philosophique, mais qui a des implications très concrètes : quelle est la différence entre une IA qui donne des réponses et une IA qui exécute des solutions? La première est un oracle statistique. La deuxième est un partenaire de résolution de problèmes fiable, modulaire, vérifiable — une société organisée d’agents spécialisés qui coordonnent leurs expertises, gardent le fil de la mémoire, et peuvent prouver chaque pas de leur raisonnement.
Permion n’est pas OpenAI. Elle ne dispose pas de milliards de dollars de financement ni de l’attention médiatique des grandes maisons. Mais elle porte quelque chose de plus rare : une vision architecturale cohérente et fondamentale de ce que l’IA devrait être — bâtie depuis les premières fondations après 350 000 heures de développement, fondée sur des mathématiques solides (les X-machines, le Pi Calcul, la logique du premier ordre), et validée par des agences gouvernementales
Dans un monde où l’IA prend des décisions qui affectent des vies — dans les hôpitaux, les tribunaux, les salles de commandement —, la question n’est plus seulement « L’IA est-elle capable? » mais « L’IA est-elle fiable? » et surtout : « L’IA peut-elle prouver qu’elle a raison? » Permion parie que oui. Et elle parie que la clé se trouve là où personne d’autre ne cherchait encore — dans l’ADN même du processeur, dans le design du token le plus élémentaire, dans la chorégraphie mathématique d’une société d’agents intelligents.
—
Sources : Arun Majumdar (Permion), LinkedIn Pulse — « The Instruction Set Architecture (ISA) of AI » (23 fév. 2026), « Human Expertise Cloning: The Permion Way » (6 fév. 2026), « Tokens to Transistors: XVM™ Energy Aware AI » (23 jan. 2026). The AI Morning Read (podcast Apple, 26 jan. 2026). G7 GovAI Challenge — Impact Canada. Billet rédigé par Michelle Blanc, M.Sc. — michelleblanc.com
#IntelligenceArtificielle #Neurosymbolique #Permion #IA #TransformationNumérique #ISA #SmartTokens #InnovationIA #AgentIA