En bref
L’analyse de 1 200 déploiements en production (ZenML, 2025) pose un constat sans équivoque : la phase d’expérimentation est terminée, la phase d’ingénierie commence. Les chiffres d’adoption varient fortement selon la source — 11 % chez Deloitte, 57 % chez LangChain — mais cette dispersion révèle un problème de définition plus qu’une contradiction. Les cas qui fonctionnent partagent un point commun : des agents étroits, mono-domaine, sous supervision humaine.
Pourquoi les chiffres divergent
57 % des organisations ont des agents en production selon LangChain (n=1 300+). Deloitte (2026) mesure seulement 11 %. Ces deux chiffres sont corrects — ils ne mesurent pas la même chose.
LangChain recense tout déploiement fonctionnel, y compris à périmètre réduit ou dans une seule équipe. Deloitte mesure le déploiement à l’échelle organisationnelle, avec gouvernance et adoption généralisée. L’écart révèle que beaucoup d’organisations ont des agents qui tournent quelque part, mais très peu ont atteint un déploiement systématique.
McKinsey (nov. 2025, n=1 993) affine le tableau : 88 % des organisations utilisent l’IA dans au moins une fonction, mais seulement 23 % sont en train de déployer à l’échelle un système agentique. Gartner (août 2025) estime à moins de 5 % les applications enterprise embarquant des agents aujourd’hui, avec une projection à 40 % d’ici fin 2026.
Le consensus n’est pas sur les chiffres. Il est sur la tendance : le passage du prototype au système maintenu en production est le vrai défi.
Six patterns qui distinguent les équipes qui livrent
ZenML a analysé 1 200 cas dans sa LLMOps Database. Six patterns distinguent les équipes qui déploient réellement de celles bloquées en mode démonstration.
1. Context engineering plutôt que prompt engineering. La dégradation de la fenêtre de contexte commence entre 50 000 et 150 000 tokens quelle que soit la capacité théorique du modèle. Les équipes performantes architecturent l’injection d’information (juste-à-temps, masquage d’outils) plutôt que d’affiner les prompts.
2. Guardrails dans l’infrastructure, pas dans les instructions. Les contraintes de sécurité architecturales — circuit breakers, permissions en double couche, isolation de session — remplacent les approches basées sur les prompts pour les systèmes critiques.
3. Agents étroits sous supervision humaine. Les agents en production fonctionnent comme des spécialistes mono-domaine, pas comme des entités autonomes. Ramp (gestion de notes de frais) traite 65 % des approbations de manière autonome [NON VÉRIFIÉ — source unique ZenML].
4. Shadow testing avant mise en production. Les agents sont d’abord exécutés en mode shadow sur des transactions réelles, comparés aux décisions humaines, puis activés uniquement quand le seuil de précision cible est atteint.
5. Évaluation comme pratique d’ingénierie standard. 89 % des équipes avec des agents en production ont implémenté de l’observabilité (LangChain, 2025). Seulement 52 % ont des évaluations formelles. Les équipes les plus matures construisent des jeux de données de référence et des systèmes d’évaluation automatique.
6. Ingénierie logicielle avant sélection de modèle. ZenML formule explicitement : « Les fondamentaux du génie logiciel — pas les modèles frontier — restent le principal prédicteur de succès. » Optimiser le réseau et l’infrastructure génère plus de valeur que de passer à un modèle plus récent.
Exemples concrets : architectures qui fonctionnent
Stripe — agents one-shot à périmètre étroit
L’architecture “Minions” de Stripe repose sur des agents sans état conversationnel : un agent, une tâche, un appel LLM. Pour les workflows de conformité complexes, un graphe orienté acyclique (DAG) enchaîne ces agents spécialisés. Résultat sur la détection de fraude : précision passée de 59 % à 97 % pour les grands marchands.
Uber — réseau d’agents spécialisés par étape
Uber a migré du code à grande échelle avec LangGraph, en assignant un agent distinct à chaque étape du pipeline de test (lint, build, test). L’agent de lint couple analyse statique déterministe et LLM pour les cas ambigus — un pattern dit “hybride” qui réduit les appels LLM aux situations où ils apportent vraiment de la valeur.
JPMorgan — déploiement institutionnel
La LLM Suite de JPMorgan a onboardé 200 000 utilisateurs en 8 mois, avec 450 cas d’usage en production. Budget IA 2024 : environ 1,3 milliard de dollars (sur 17 milliards de budget tech total). Gain de productivité sur le code estimé à +10-20 %.
Échecs documentés
L’escalade de coûts incontrôlée
Un cas de la ZenML Database illustre le risque d’un bug de boucle infinie : coûts hebdomadaires passés de 127 $ à 47 000 $ en quatre semaines. Six semaines de travail de correction. Les agents avec accès aux systèmes de facturation exigent des circuit breakers explicites.
Les systèmes multi-agents génériques ne passent pas en production
Cemri, Pan, Yang et al. (UC Berkeley, arXiv mars 2025) ont analysé 1 600+ traces d’exécution sur 7 frameworks différents, dont GPT-4, Claude 3, et CodeLlama. Résultat : 14 modes d’échec distincts, classés en trois catégories — conception du système, désalignement entre agents, vérification de tâche.
Sur ChatDev (framework multi-agents open-source), le taux de correction correcte est de 25 %. Même avec des interventions d’optimisation (prompt engineering + orchestration améliorée), le gain est de +14 points seulement — insuffisant pour la production réelle.
La distinction critique : les systèmes multi-agents généralistes présentent des taux d’échec prohibitifs. Les systèmes multi-agents à périmètre borné et spécialisés (Uber, Stripe) fonctionnent.
La prédiction Gartner sur les annulations
Gartner (2025) prévoit qu’au moins 40 % des projets d’IA agentique seront annulés d’ici fin 2027. La cause identifiée n’est pas technique : coûts escaladants, valeur métier insuffisante, et absence de contrôles de risque. Deloitte (2026) corrobore : seulement 21 % des organisations disposent d’un modèle de gouvernance mature pour les agents autonomes.
ROI : auto-déclaré vs indépendant
Les enquêtes auto-déclaratives affichent des chiffres élevés : retour sur investissement moyen de 171 % selon certaines agrégations, 74 % des exécutifs déclarant un ROI dans la première année [NON VÉRIFIÉ — sources sans méthodologie publiée]. Ces chiffres sont à traiter avec précaution : ils proviennent majoritairement d’études commanditées par des vendeurs ou d’enquêtes sans audit indépendant.
McKinsey (source indépendante, n=1 993) est nettement plus sobre : 39 % des organisations attribuent un impact sur leur résultat opérationnel à l’IA. Parmi eux, la majorité rapporte moins de 5 % de leur résultat opérationnel.
Les deux positions coexistent dans la littérature sans réconciliation. L’absence de définition standardisée d’un “agent en production” et l’absence d’audit indépendant expliquent en grande partie la dispersion.
Ce qu’il faut retenir
- Les chiffres d’adoption (11 % Deloitte vs 57 % LangChain) mesurent des réalités différentes : déploiement organisationnel systématique versus toute instance fonctionnelle. Les deux sont corrects.
- Les agents en production réussis sont étroits, mono-domaine, et supervisés — pas autonomes et généralistes.
- L’UC Berkeley (MAST, 2025) a documenté 14 modes d’échec distincts des systèmes multi-agents, avec des taux de correction aussi bas que 25 % sur les frameworks généralistes.
- Gartner prévoit 40 % d’annulations d’ici 2027 pour des raisons de gouvernance et de valeur métier insuffisante — pas pour des raisons techniques.
- Le ROI auto-déclaré (171 % moyen) contraste fortement avec les mesures indépendantes McKinsey (impact EBIT < 5 % pour la majorité). Aucune source académique ne corrobore les niveaux élevés.
Sources
- ZenML, “What 1,200 Production Deployments Reveal About LLMOps in 2025”, ZenML Blog 2025
- McKinsey & Company / QuantumBlack, “The state of AI in 2025: Agents, innovation, and transformation”, nov. 2025
- LangChain, “State of Agent Engineering”, 2025
- Deloitte, “The State of AI in the Enterprise 2026 / Agentic AI strategy”, 2026
- Gartner, “Gartner Predicts Over 40% of Agentic AI Projects Will Be Canceled by End of 2027”, août 2025
- Cemri M., Pan M.Z., Yang S. et al., “Why Do Multi-Agent LLM Systems Fail?”, arXiv:2503.13657, UC Berkeley 2025
- Sitepoint, “Deconstructing Stripe’s ‘Minions’: One-Shot Agents at Scale”, 2025
- Uber Engineering, “Building AI Developer Tools Using LangGraph for Large-Scale Software Development”, 2025
- Tearsheet, “JPMorgan Chase’s Gen AI implementation: 450 use cases and lessons learned”, 2025
- ZenML, “LLM Agents in Production: Architectures, Challenges, and Best Practices”, 2025