En bref

Un système IA agentique — où un modèle peut planifier, déléguer et exécuter des tâches — soulève une question de gouvernance : qui valide quand l’IA conçoit et exécute ? Une réponse pratique consiste à distribuer trois rôles distincts : copilote IA (conception), exécutant technique (exécution), opérateur humain (décision et validation). Ce triangle de décision repose sur une asymétrie fondamentale : seul l’humain est indépendant du modèle sous-jacent.


Le problème que le triangle résout

Dans un système agentique minimal — un seul modèle qui reçoit un objectif et l’exécute —, la validation est absente. Le modèle produit un plan et l’applique. Si le plan est défectueux, rien ne l’intercepte.

La tentation est d’ajouter un second agent pour contrôler le premier. Mais si les deux s’appuient sur le même modèle de base, leur accord ne constitue pas une validation indépendante : ce sont deux instances du même raisonnement. C’est le biais de convergence : deux LLM issus du même poids convergent vers des conclusions similaires, même face à une erreur.

La solution n’est pas d’ajouter plus d’agents. C’est d’introduire un acteur structurellement différent : un humain dont le jugement ne dépend pas du modèle.


Les trois rôles du triangle

Le copilote IA — QUOI et POURQUOI

Le copilote IA prend en charge la conception. Il décompose un objectif en sous-tâches, formalise les hypothèses, conçoit les prompts, analyse les résultats. Il opère en langage naturel, sans accès aux systèmes de fichiers ni aux outils d’exécution.

Cette contrainte est délibérée : le copilote ne touche pas aux artefacts produits. Il pense. Il ne fait pas.

Force : la séparation entre conception et exécution force une explicitation du plan avant qu’il soit appliqué. L’opérateur humain peut lire, critiquer et valider avant que quoi que ce soit ne soit exécuté.

Limite : le copilote IA reste un modèle de langage. Il peut formaliser une décomposition incorrecte avec la même fluidité qu’une décomposition correcte. Sa cohérence interne n’est pas une garantie de justesse.

L’exécutant technique — COMMENT

L’exécutant technique prend une décomposition validée et l’applique. Il a accès au système de fichiers, aux outils, aux API, au versioning. Son périmètre d’initiative est minimal : il exécute, signale les anomalies, archive les résultats.

La règle structurante est la suivante : l’exécutant ne crée jamais seul une décomposition complexe. Si une tâche dépasse le cadre d’une action atomique, il remonte vers l’opérateur humain plutôt que de décomposer de sa propre initiative.

Force : cantonner l’exécutant à l’exécution permet d’auditer les actions effectuées indépendamment du raisonnement qui les a produites.

Limite : l’exécutant et le copilote reposent souvent sur le même modèle de base. Leur accord mutuel — le copilote valide ce que l’exécutant a produit — ne constitue pas une vérification indépendante.

L’opérateur humain — décision et validation

L’opérateur humain décide des objectifs, valide les décompositions avant exécution, et valide les résultats. Il est le seul point du système dont le jugement ne dépend pas du modèle sous-jacent.

Ce rôle ne consiste pas à superviser chaque action à la microseconde. Il consiste à positionner des points de validation aux moments où le système prend des décisions structurantes : avant d’exécuter un plan, avant de publier un livrable, avant d’appliquer un changement irréversible.

Force : l’humain casse la boucle de convergence. Même si le copilote et l’exécutant convergent vers une même erreur, l’humain peut l’intercepter.

Limite : ce rôle suppose que l’opérateur comprend suffisamment ce que le système produit pour valider de façon non formelle. Une validation de surface — “ça a l’air bien” — ne remplit pas la fonction.


Le flux de décision en pratique

Le triangle fonctionne comme un flux séquentiel avec des points de passage obligatoires :

  1. L’opérateur humain définit l’objectif.
  2. Le copilote IA décompose l’objectif en sous-tâches et conçoit les prompts d’exécution.
  3. L’opérateur humain valide la décomposition.
  4. L’exécutant technique applique le plan, tâche par tâche.
  5. L’opérateur humain valide les livrables avant toute action finale (merge, publication, déploiement).

Ce flux ne suppose pas une supervision continue. Il suppose des points de rupture structurés où l’humain est en position de bloquer une action avant qu’elle devienne irréversible.


Pourquoi la séparation de rôles tient

La séparation des rôles n’est pas une convention organisationnelle. C’est une propriété de fiabilité du système.

Un modèle de langage ne peut pas valider ses propres sorties de façon indépendante. Il peut critiquer, reformuler, améliorer — mais sa critique est produite par le même processus que sa production. C’est une limite fondamentale, pas un bug corrigeable par un modèle plus grand.

Le triangle de décision contourne cette limite en externalisant la validation vers un acteur structurellement différent. Ce n’est pas l’humain qui est “meilleur” que le modèle sur chaque tâche. C’est l’humain qui est indépendant — et l’indépendance est ce qui rend la validation utile.

La règle pratique qui en découle : le copilote IA ne valide jamais les résultats produits par l’exécutant technique. Cette validation appartient à l’opérateur humain. Si l’humain délègue cette validation au copilote, le triangle est rompu.


Ce qu’il faut retenir

  • Un système agentique sans validation indépendante ne peut pas détecter ses propres erreurs structurelles.
  • Le biais de convergence rend inefficace la validation par un second agent issu du même modèle.
  • Le triangle distribue trois rôles : conception (copilote IA), exécution (exécutant technique), validation (opérateur humain).
  • L’opérateur humain n’est pas un superviseur continu — il est un point de rupture structuré aux décisions irréversibles.
  • La séparation tient si et seulement si l’humain valide effectivement les livrables, pas formellement.

Sources