Aller au contenu principal
SaaS

Les 5 degrés d'autonomie d'un agent IA, et pourquoi 90 % des projets s'arrêtent au degré 2

Le cadre Sheridan adapté au business 2026 : cinq paliers du simple assistant au système entièrement autonome. Diagnostic, exigences architecturales et calendrier réaliste pour passer un palier.

Équipe SwoftPôle veille IA & systèmes agentiques
Cinq paliers représentant les degrés d'autonomie d'un agent IA

En 2026, à peu près tout ce qui sort de la stack IA est étiqueté agent. Or la plupart des projets vendus comme tels ne dépassent pas le degré 2 d'autonomie. Cet article propose une grille de lecture en cinq paliers, adaptée du cadre Sheridan-Verplank de 1978, pour situer un agent IA sans se laisser embarquer par le marketing.

Pourquoi cinq paliers et pas une autonomie binaire

L'autonomie ne se décrète pas, elle se mesure. Sheridan et Verplank l'avaient compris dès la fin des années 70 en travaillant sur la téléopération sous-marine. Ils ont défini une échelle à dix niveaux où la machine prend progressivement en charge l'observation, le raisonnement, la décision et l'exécution. Plus on monte, plus la responsabilité humaine bascule de l'opération vers la supervision.

Pour le business contemporain, dix niveaux sont trop fins. On peut condenser sans perdre l'essentiel à cinq paliers, plus lisibles pour un comité de direction et plus utiles pour piloter un projet agent IA en production.

Degré 1, Suggestion : la machine propose, l'humain dispose

C'est l'autonomie minimale. La machine analyse une situation et propose des options, mais c'est l'humain qui choisit et qui exécute. Copilot dans Visual Studio Code, ChatGPT en mode chat ouvert, Claude qui génère du contenu sur demande : tous fonctionnent au degré 1. La décision et l'action restent humaines.

Le gain productif est réel mais limité. Chaque cycle attend une intervention humaine. Le degré 1 est utile pour les tâches créatives ou exploratoires, où la valeur ajoutée vient justement du jugement humain au moment de choisir.

Degré 2, Exécution sous validation : la machine propose et exécute après votre OK

Au degré 2, la machine va plus loin : elle prépare l'action, parfois la pré-exécute en environnement de test, et soumet à validation humaine. Si l'humain valide, elle exécute. Sinon, elle reformule. Un agent de relance commerciale qui rédige les mails et attend votre clic OK fonctionne au degré 2. Beaucoup d'éditeurs SaaS sont là, parce que le degré 2 est sûr et facile à vendre.

C'est aussi la limite supérieure de la majorité des produits agent IA en 2026. Pour passer au degré 3, il faut accepter que la machine décide seule sur certains cas. La marche est plus haute qu'on ne le pense.

Degré 3, Autonomie cadrée : la machine décide et exécute, escalade hors périmètre

Au degré 3, la machine prend les décisions courantes seule, dans un périmètre formellement défini. Quand elle est face à un cas qui sort de son périmètre, ou quand son score de confiance est en dessous d'un seuil, elle escalade vers un humain. Un agent de tri de tickets qui répond aux cas connus et passe la main pour les cas nouveaux fonctionne au degré 3.

Le degré 3 est l'horizon réaliste de la majorité des projets agent en entreprise. C'est aussi celui où la valeur économique apparaît : la machine traite 80 à 95 % du volume sans intervention, l'humain garde la main sur les 5 à 20 % restants. Le ROI bascule positif.

Degré 4, Autonomie supervisée : la machine fait tout, l'humain audite

Au degré 4, la machine décide et exécute sur l'intégralité du périmètre, y compris les cas complexes. L'humain n'est plus dans la boucle de décision en temps réel. Il audite a posteriori, hebdomadairement ou mensuellement, sur des échantillons. C'est le degré typique d'un agent de scoring crédit auditable, ou d'un agent de surveillance fraude qui décide seul mais dont les décisions sont revues par un comité de risque chaque semaine.

Le degré 4 demande un investissement considérable en gouvernance. Il faut des tableaux de bord d'audit, des mécanismes de calibration continue, et une discipline organisationnelle pour traiter sérieusement les revues. Peu d'entreprises sont prêtes à l'investissement. Celles qui le font (banques, assurances en pleine maturité IA) en tirent un effet de levier énorme.

Degré 5, Autonomie totale : très rare, et probablement non souhaitable

Au degré 5, la machine décide, exécute, apprend de ses résultats et se corrige sans intervention humaine, sauf incident grave. C'est l'autonomie totale au sens strict. En pratique, ce degré est rare en production sur des décisions à enjeu, et il est probablement non souhaitable dans les contextes régulés.

L'article 14 d'EU AI Act exige une supervision humaine effective sur toute IA à haut risque. Le degré 5 strict y est mécaniquement incompatible. Les seules zones où le degré 5 a du sens sont les processus de très faible enjeu individuel mais à très grand volume (modération de contenu basique, tri d'images automatique), avec des garde-fous statistiques.

Diagnostic : où est votre projet aujourd'hui

Trois métriques permettent de diagnostiquer le degré effectif d'un agent en production. Le taux d'escalade humaine, qui mesure combien de décisions sont remontées : au degré 3 stable, on est typiquement entre 5 et 15 %. Le taux de réversion, qui mesure combien de décisions sont annulées par un humain a posteriori : il doit rester sous 1 % pour que le degré 3 soit défendable. Le score de confiance moyen, qui indique la calibration : un agent qui a confiance dans 80 % de ses décisions et escalade les 20 % restants est sain ; un agent qui a confiance partout est suspect.

La progression d'un projet n'est pas linéaire. Beaucoup d'organisations restent six mois au degré 2 pour calibrer les seuils sur des données réelles, puis basculent au degré 3 du jour au lendemain quand les métriques sont stables. C'est la bonne pratique : déployer en degré 2, mesurer, basculer en degré 3 quand la confiance objective est là.

Sujets abordés

  • Agents IA
  • Autonomie
  • Sheridan
  • Architecture
  • Gouvernance
Traduction technologique

Comment Swoft traduit cet enjeu en logiciel

L'architecture Swoft est conçue pour faire opérer les agents au degré 3 par défaut, avec extension possible au degré 4. Voici comment chaque exigence du passage de palier est portée par construction.

  1. 01

    Périmètre formel non contournable

    Chaque agent est rattaché à un Bounded Context du métamodèle DDD. Il ne peut techniquement pas écrire dans un domaine qui ne lui est pas attribué. Cette contrainte est vérifiée à la compilation et au runtime, pas par revue manuelle.

  2. 02

    Mémoire structurée auditable

    Chaque observation et chaque décision sont des événements typés persistés dans l'Event Store. Le rejeu de l'historique reproduit exactement le même résultat, indépendamment du modèle utilisé.

  3. 03

    Calibration explicite de la confiance

    Chaque décision IA porte un score de confiance, un raisonnement structuré, et la liste des alternatives considérées. Les seuils sont configurables par cas d'usage et modifiables à chaud.

  4. 04

    Approval gates dynamiques

    Les sagas event-sourcées injectent des points de validation humaine dynamiquement selon des règles métier. Une décision sensible suspend la saga, attend votre OK, et reprend automatiquement à la validation.

Continuer la lecture — SaaS