Aller au contenu principal
SaaS

Comment les agents IA de Swoft se représentent votre métier (et pourquoi ça change tout)

Six couches de représentation explicite, structurée et vérifiable. Là où un LLM seul a une représentation cachée dans ses poids, les agents Swoft savent exactement ce qu'ils savent — et peuvent le prouver.

Équipe SwoftPôle recherche
Visualisation abstraite de couches de représentation de la connaissance

Depuis les origines de l'intelligence artificielle, la question fondamentale n'est pas « comment apprendre ». C'est « comment représenter ce qu'on sait ». La façon dont un système encode sa connaissance détermine ce qu'il peut faire avec — raisonner, expliquer, garantir un résultat, refuser une action interdite. Cette question, longtemps laissée de côté par la vague deep learning, redevient centrale dès qu'on confie à une IA des décisions à conséquence.

Le problème silencieux des agents LLM : une représentation implicite

Les grands modèles de langage — Claude, GPT, Gemini — possèdent une représentation du monde entièrement implicite. Elle est enfouie dans des milliards de paramètres, non inspectable, non vérifiable. Un LLM « sait » que Paris est en France, mais ce savoir n'est pas écrit quelque part qu'on puisse consulter. Il émerge statistiquement à chaque génération.

Cette propriété est devenue un problème dès que les LLM ont commencé à orchestrer des actions réelles dans des systèmes d'entreprise. Trois lacunes s'imposent :

  • Les hallucinations sont structurelles, pas accidentelles. Le modèle ne distingue pas ce qu'il sait de ce qu'il invente.
  • Pas de garantie de cohérence. Deux requêtes identiques peuvent produire deux réponses contradictoires.
  • Pas d'audit possible. Impossible de remonter au raisonnement qui a produit une décision.
  • Pas de périmètre. Un agent peut prendre une décision en dehors de sa zone d'expertise sans que rien ne l'arrête.

La solution, théorisée par Henry Kautz dans sa conférence Engelmore Memorial à AAAI 2022, s'appelle le neurosymbolisme — combiner la flexibilité des réseaux de neurones avec la rigueur des représentations symboliques. La grande revue systématique de Colelough & Regli (arXiv 2025, 167 articles, 2020-2024) note que les systèmes neurosymboliques de production restent rares, et que la plupart sont confinés à des domaines étroits.

La grille complémentaire de Sheth, Roy & Gaur (IEEE Intelligent Systems, 2023) classifie les approches selon la direction d'intégration : famille 1 dite Lowering (la connaissance symbolique est compressée dans les poids du réseau, par knowledge graph embeddings ou logique formelle compressée), et famille 2 dite Lifting (le composant neural produit des représentations que le symbolique exploite). À l'intérieur de la famille 2, deux variantes : 2a — pipeline fédéré, où le LLM orchestre et délègue à des solveurs symboliques (LangChain + Wolfram Alpha en est l'archétype), et 2b — pipeline intertwined end-to-end différentiable, où neural et symbolique apprennent conjointement par rétropropagation. La 2b est la plus ambitieuse, et la plus rare en production.

Swoft dépasse les pipelines 2a sur les dimensions critiques pour l'entreprise — explainability, contraintes de domaine en entrée et en sortie (pas seulement en entrée), continual learning via Event Store, déterminisme du replay (unique dans la littérature) — tout en restant en-deçà de la 2b puisque le couplage n'est pas end-to-end différentiable. C'est un compromis productionnable : la rigueur du raisonnement formel sans l'instabilité de l'apprentissage conjoint.

Six couches de représentation, partagées par tous les agents

Là où les frameworks multi-agents classiques (CrewAI, LangGraph, AutoGen) donnent à chaque agent son propre contexte et le forcent à dialoguer avec les autres en langage naturel — avec toute l'ambiguïté que cela implique — Swoft empile six systèmes de représentation distincts qui se renforcent mutuellement. Tous les agents partagent la même grille de lecture du monde.

01 · Représentation structurelle — le métamodèle du métier

Le système connaît ses propres domaines, ses entités, ses commandes, ses événements et leurs relations. C'est l'équivalent d'un knowledge graph spécialisé dans l'architecture logicielle — mais opérationnel : le système génère du code en consultant cette représentation, valide ses sorties contre elle, et détecte automatiquement les divergences entre ce qu'il croit et ce qui est. Quand un agent doit créer un nouveau cas d'usage, il ne devine pas la structure : il la lit.

02 · Représentation temporelle — la mémoire évènementielle

Chaque action, humaine ou IA, est enregistrée comme un événement horodaté avec son contexte causal. Cette mémoire totale autorise le time-travel debugging — reconstituer l'état du système à n'importe quel instant T — et fournit l'audit trail complet exigé par RGPD, DORA et NIS2. Un détail décisif : les décisions des agents sont stockées comme données, pas recalculées au replay. Le déterminisme est garanti même quand le LLM sous-jacent est non-déterministe.

03 · Représentation procédurale — la logique métier déclarative

Les règles du métier — conditions, opérateurs, sources de données, politiques d'événements — sont déclarées en configuration et évaluées au runtime. Modifier une règle métier ne demande pas de recompilation. Un changement de règle est un changement de donnée. Cela paraît anodin ; c'est en fait fondamental : les agents peuvent voir et raisonner sur la logique métier, pas seulement sur le code qui l'implémente.

04 · Représentation vectorielle — la connaissance par similarité

Chaque persona dispose d'une base de connaissances en embeddings vectoriels. La recherche par similarité cosinus permet à un agent de retrouver des cas analogues, des décisions passées, des analyses pertinentes — utile là où c'est pertinent (recherche de connaissance), strictement contraint par les périmètres d'agents. C'est la seule couche distribuée du système : elle complète les cinq autres sans les remplacer.

05 · Représentation organisationnelle — Conway's Law exécutable

Une table de routage associe chaque domaine métier à un agent propriétaire et un backup, avec des seuils de confiance qui déterminent si l'agent peut décider seul, ou s'il doit escalader. Le système sait qui est responsable de quoi. Les agents ne peuvent pas agir hors de leur périmètre — pas par convention, mais parce que la structure du système le rend impossible. C'est la représentation que les frameworks multi-agents concurrents ne possèdent pas, et c'est celle qui fait toute la différence sur les workflows critiques.

06 · Représentation visuelle — design system contraint

Les composants d'interface forment un vocabulaire visuel borné. Des règles de validation statiques refusent toute UI qui sort du vocabulaire — pas après coup, à la compilation. Les agents qui génèrent des écrans choisissent dans ce vocabulaire ; ils ne peuvent pas inventer des pixels libres. Cette contrainte, qui paraît une limite, est en réalité ce qui permet de générer de l'interface utilisable à grande échelle sans dérive de cohérence.

Le même socle pour vos systèmes

Les systèmes neurosymboliques de production cités dans la littérature — AlphaGeometry, Plato-3, FAOS — partagent une limite commune : ils sont mono-domaine. AlphaGeometry résout la géométrie. Plato-3 traite le cancer de la prostate en médecine nucléaire. FAOS, le plus généraliste, reste cantonné à l'orchestration de 21 verticales par ontologie figée. Construire un nouveau système NeSy pour un autre domaine, c'est partir d'une page blanche.

La plateforme Swoft est, elle, générique. Le métamodèle décrit la forme d'un domaine métier, pas un domaine particulier. C'est ce qui permet à Swoft de l'utiliser pour générer le logiciel de ses clients : la même infrastructure neurosymbolique sous-tend les applications livrées. Vos agents IA, vos décisions auditables, vos contraintes architecturales héritent par construction des six couches de représentation décrites plus haut. Vous ne déployez pas un wrapper LLM personnalisé — vous obtenez un système de la même classe que celle dont Kautz parlait, dans votre métier.

Pourquoi cette architecture résout les quatre lacunes du neurosymbolisme

La revue systématique de la littérature neurosymbolique 2025 identifie quatre verrous non résolus dans les systèmes de production. Swoft les traite tous les quatre.

  • Déterminisme du replay. Les LLM sont non-déterministes, donc rejouer le même pipeline produit des résultats différents. La couche temporelle de Swoft stocke chaque décision IA comme donnée — au replay, on relit la décision, on ne la rejoue pas.
  • Générique vs spécifique. Les ontologies existantes sont construites à la main pour des domaines étroits. Le métamodèle Swoft est générique : il décrit la forme d'un domaine métier, pas un domaine en particulier.
  • Scalabilité du symbolique. Les raisonneurs symboliques classiques (Prolog, Answer Set Programming) butent sur des goulots combinatoires. Swoft contourne le problème en localisant le raisonnement par bounded context, pas globalement.
  • Accountability multi-agents. Quand plusieurs agents coopèrent, la responsabilité devient floue. Le pattern dual attribution de Swoft impose à chaque action d'être tracée par deux acteurs : l'humain qui autorise, l'agent qui exécute.

Ce que ça change pour vous

Pour un dirigeant qui regarde ce que produit l'IA dans son entreprise, la question n'est pas « est-ce qu'elle a écrit du beau code ». La question est : est-ce que le système qui décide à ma place est inspectable, opposable, et bornable ? Si la réponse est non, alors le risque est invisible — jusqu'au jour où il devient un incident.

Donner aux agents IA une représentation explicite et vérifiable du métier n'est pas un raffinement académique. C'est la condition pour qu'on puisse leur confier des décisions à conséquence sans renoncer à la conformité, à l'audit, ou à la maîtrise de ce qu'ils font.

Swoft ne construit pas une IA qui sait tout. Il construit un système qui sait exactement ce qu'il sait, et qui peut le prouver.

Sujets abordés

  • Neurosymbolisme
  • Agents IA
  • Représentation des connaissances
  • Knowledge graph
  • Conway's Law
  • Event Sourcing
  • DDD
  • Kautz
  • Sheth Roy Gaur
  • Plateforme générique
Traduction technologique

Comment Swoft traduit cet enjeu en logiciel

Comment ces six couches deviennent une réalité opérationnelle dans la plateforme Swoft.

  1. 01

    Métamodèle DDD comme knowledge graph opérationnel

    Domaines, bounded contexts, aggregates, événements, commandes et leurs relations sont stockés et requêtables. Les agents génèrent du code en lisant le métamodèle ; toute génération qui le viole est rejetée au build.

  2. 02

    Event Store et déterminisme du replay

    Chaque événement est immuable, horodaté et causalement chaîné. Les décisions IA sont stockées comme données — pas recalculées. Audit trail RGPD / DORA / NIS2 par construction.

  3. 03

    Conway's Law exécutable

    Routage agent ↔ domaine avec seuils de confiance. Un agent qui tente d'agir hors de son périmètre est bloqué structurellement, pas par un prompt « ne fais pas ça ».

  4. 04

    Dual attribution sur chaque action

    Toute mutation porte deux acteurs : l'humain qui autorise et l'agent qui exécute. La responsabilité reste traçable même quand 13 agents coopèrent sur une saga complexe.

Continuer la lecture — SaaS