En bref

En 2026, construire un agent IA ne signifie plus écrire un prompt et espérer le mieux. Cela implique de choisir un framework d’orchestration — et ce choix engage profondément l’architecture. LangGraph, CrewAI, AutoGen (désormais Microsoft Agent Framework), et les SDK natifs d’OpenAI, Anthropic ou AWS proposent des approches radicalement différentes. En toile de fond, le Model Context Protocol (MCP) s’impose comme la couche de connexion transversale.


Pourquoi le choix du framework compte

Un framework d’agents orchestre trois choses : la logique de décision de l’agent, la gestion de l’état entre les étapes, et la connexion aux outils externes. Si la partie “appeler un LLM” est banalisée, les deux autres restent difficiles.

En production, les problèmes n’arrivent pas lors du premier test. Ils arrivent après six mois, quand les cas limites s’accumulent, quand l’agent doit reprendre après une interruption, ou quand plusieurs agents doivent se coordonner sans se contredire. C’est là que les choix d’architecture s’avèrent structurants.

Une étude publiée sur arXiv (2511.14136) a analysé 1 642 traces d’exécution sur sept frameworks open-source et relevé des taux d’échec allant de 41 % à 86,7 %, dont 36,9 % attribuables à des défaillances de coordination entre agents. Ces chiffres ne disqualifient pas les frameworks — ils signalent que la fiabilité en production reste un enjeu non résolu.

LangGraph — la flexibilité au prix de la complexité

LangGraph est l’héritier de LangChain pour les systèmes agents. L’équipe LangChain recommande officiellement LangGraph pour tout nouveau projet. La version 1.0, un jalon majeur, consolide une architecture orientée graphe : des nœuds (étapes de traitement), des arêtes directionnelles, un état immutable avec persistance durable.

Ce modèle permet des patterns sophistiqués : reprise sur interruption, human-in-the-loop natif, workflows complexes à branchements conditionnels. L’outil d’observabilité associé, LangSmith, est un avantage concret en production — il permet de tracer chaque appel, chaque décision, chaque outil invoqué.

Forces : flexibilité maximale, observabilité native, persistance d’état, communauté très large.

Limites : la courbe d’apprentissage est réelle. Pour un cas simple, LangGraph est surdimensionné. Les abstractions peuvent devenir un obstacle quand on veut faire quelque chose hors du chemin prévu.

Pour qui : équipes qui anticipent une complexité croissante, qui ont besoin de traçabilité fine, ou qui gèrent des workflows longs avec état persistant.

CrewAI — simple à démarrer, limité en hauteur

CrewAI part d’une intuition différente : organiser les agents en équipes (« crews »), chacun avec un rôle défini. Un agent rédacteur, un agent vérificateur, un agent synthétiseur — et une « crew » qui les coordonne. C’est intuitif, proche du vocabulaire managérial.

Le framework propose deux modes : Crews (autonomie, collaboration orientée rôles) et Flows (workflows event-driven déterministes). Les chiffres d’adoption sont élevés : plus d’un million de téléchargements mensuels, plus de 100 000 développeurs certifiés sur la plateforme officielle. PwC l’utilise en production et documente une amélioration de la précision de génération de code de 10 % à 70 %.

Mais plusieurs équipes rapportent la même trajectoire : CrewAI fonctionne bien les six premiers mois, puis la complexité croissante de l’application se heurte aux limites du framework. L’architecture opiniâtrée bloque les patterns d’orchestration personnalisés. L’exécution parallèle est moins mature que LangGraph. Ces équipes finissent par réécrire vers LangGraph.

Forces : onboarding rapide, paradigme de rôles intuitif, forte communauté, adoption enterprise documentée.

Limites : plafond de complexité atteint en 6-12 mois selon les retours terrain. Peu adapté aux orchestrations sur mesure.

Pour qui : prototypage rapide, cas d’usage bien délimités, équipes qui veulent démarrer sans investir dans une courbe d’apprentissage longue.

Microsoft Agent Framework — l’option enterprise Azure

En octobre 2025, Microsoft a fusionné AutoGen et Semantic Kernel en un framework unifié appelé Microsoft Agent Framework (public preview en octobre 2025, disponibilité générale prévue au premier trimestre 2026). AutoGen, né dans les labs de recherche de Microsoft, apportait le modèle multi-agents conversationnel. Semantic Kernel apportait les capacités enterprise : session state, middleware, télémétrie OpenTelemetry, intégration Microsoft Entra.

La fusion produit un framework qui cible clairement les entreprises déjà dans l’écosystème Azure : support multi-langage (C#, Python, Java), intégration native avec les services Microsoft, protections contre l’injection de prompt. AutoGen reste maintenu pour les bugs et la sécurité, mais ne recevra plus de nouvelles fonctionnalités majeures.

Forces : grade enterprise, observabilité native (OpenTelemetry), sécurité intégrée, support multi-langage, écosystème Azure.

Limites : migration depuis AutoGen ou Semantic Kernel demande un effort significatif. Forte dépendance à l’écosystème Microsoft.

Pour qui : équipes enterprise sur Azure qui ont besoin de conformité, de télémétrie et d’intégration avec les services Microsoft existants.

Les SDK natifs — légèreté et intégration verticale

Trois grands éditeurs proposent leurs propres SDK, chacun optimisé pour leur modèle :

OpenAI Agents SDK (mars 2025, successeur de Swarm) : quatre primitives — Agents, Handoffs, Guardrails, Tracing. Disponible en Python et TypeScript. Conçu pour être provider-agnostic (compatible avec plus de 100 LLM via l’API Chat Completions), mais optimisé en pratique pour les modèles OpenAI. Léger, accessible, intègre des guardrails configurables pour valider les entrées et sorties.

Claude Agent SDK (Anthropic) : renommé en 2025 pour signaler un usage général au-delà de Claude Code. Disponible en Python et TypeScript. Sa particularité : l’architecture subagents avec fenêtres de contexte isolées — chaque sous-agent opère dans son propre contexte, sans polluer celui de l’orchestrateur. Permet la découverte dynamique d’outils pour des workflows impliquant des dizaines d’outils.

Strands Agents SDK (AWS) : open-sourcé en mai 2025. Approche minimaliste : un modèle, un system prompt, des outils. Suffisant pour définir un agent. Utilisé en production chez AWS (Amazon Q Developer, AWS Glue). Intégration MCP native, support du protocole Agent-to-Agent (A2A) depuis la version 1.0.

Ces SDK natifs partagent une logique commune : réduire la surface d’abstraction, rester proche du modèle, optimiser pour un écosystème cloud spécifique.

Tableau comparatif

FrameworkParadigmeComplexitéObservabilitéEcosystèmeMCP
LangGraphGraph-based statefulÉlevéeLangSmith natifOpen-source, cloud-agnosticNatif
CrewAICrews / FlowsFaible à modéréeLimitéeOpen-source, enterpriseOui
Microsoft Agent FrameworkHub-and-spokeÉlevéeOpenTelemetry natifAzure, enterpriseOui
OpenAI Agents SDKPrimitives légèresFaibleTracing intégréOpenAI-centréOui
Claude Agent SDKSubagents isolésModéréeNon documentéeAnthropic-centréOui
Strands (AWS)Model-drivenTrès faibleBedrock AgentCoreAWS-centréNatif
LlamaIndexEvent-drivenModéréeLimitéeRAG/documentOui

LlamaIndex — le spécialiste documentaire

LlamaIndex occupe une niche distincte : les workflows RAG agentiques. Son moteur Workflows est event-driven asynchrone, conçu pour orchestrer des pipelines multi-étapes de traitement documentaire. Les Agentic Document Workflows (ADW), introduits en 2025, combinent extraction, retrieval, génération structurée et orchestration agentique pour automatiser le traitement de corpus documentaires.

C’est le moins généraliste du panorama, mais sur son terrain — ingestion, enrichissement, interrogation de documents — il n’a pas d’équivalent direct.

Pour qui : équipes dont le cas d’usage central est documentaire (contrats, rapports, bases de connaissances).

MCP — le standard qui relie tout

Le Model Context Protocol est sorti des labs d’Anthropic en novembre 2024. OpenAI l’adopte en mars 2025. Microsoft, Google DeepMind, AWS suivent. En décembre 2025, le protocole est transféré à l’Agentic AI Foundation, co-fondée par Anthropic, Block et OpenAI sous l’égide de la Linux Foundation.

MCP n’est pas un framework concurrent. C’est une couche de connexion standardisée entre un agent et ses outils : bases de données, APIs, systèmes de fichiers, services web. Avant MCP, chaque framework gérait ses propres connecteurs. Avec MCP, un serveur MCP écrit une fois est utilisable par LangGraph, CrewAI, Strands, ou le SDK OpenAI indifféremment.

C’est le seul point du panorama où l’industrie a convergé vers un standard commun. Les enjeux de sécurité restent ouverts — des chercheurs ont identifié en avril 2025 des vulnérabilités par injection de prompt et exfiltration via combinaison d’outils — mais le protocole est désormais la couche d’intégration de référence.

Comment choisir

Il n’y a pas de framework universel. La bonne question est : quel est le profil de complexité de votre cas d’usage, et dans quel écosystème opérez-vous ?

Un prototype qui doit fonctionner en deux semaines → CrewAI ou OpenAI Agents SDK. Un système en production avec reprises sur interruption, état persistant et traçabilité → LangGraph. Une équipe enterprise sur Azure avec contraintes de conformité → Microsoft Agent Framework. Un workload AWS → Strands. Un cas documentaire → LlamaIndex.

Ce qui ne change pas : quelle que soit la stack choisie, MCP est le mécanisme d’intégration outils. L’adopter dès le départ évite de réécrire la couche de connexion lors d’un changement de framework.


Ce qu’il faut retenir

  • LangGraph est le choix le plus flexible pour les systèmes complexes, au prix d’une courbe d’apprentissage sérieuse.
  • CrewAI accélère le démarrage mais atteint son plafond en production passé 6-12 mois selon les retours terrain.
  • Microsoft Agent Framework unifie AutoGen et Semantic Kernel pour les entreprises Azure.
  • Les SDK natifs (OpenAI, Anthropic, AWS Strands) privilégient la légèreté et l’intégration verticale.
  • LlamaIndex reste la référence pour les workflows RAG agentiques.
  • MCP est devenu le standard transversal d’intégration outils : adopté par tous les frameworks majeurs, gouverné par la Linux Foundation depuis décembre 2025.
  • Les taux d’échec en production documentés (41-86 % selon l’étude MAST) rappellent que la maturité des systèmes multi-agents reste un travail en cours.

Sources