En bref

Anthropic est un laboratoire d’IA américain fondé en 2021 par des transfuges d’OpenAI, convaincus que la sécurité des systèmes d’IA doit primer sur la vitesse de commercialisation. En cinq ans, la société a levé plus de 67 milliards de dollars, atteint une valorisation de 380 milliards et placé sa famille de modèles Claude parmi les plus performants du marché. Paradoxe assumé : Anthropic croit que l’IA transformatrice est inévitable, et préfère en être à la frontière plutôt que de laisser ce terrain à des acteurs moins préoccupés par ses risques.


Fiche d’identité

DonnéeValeur
Fondation2021
SiègeSan Francisco, Californie
EffectifNon publié (plusieurs centaines d’ingénieurs et chercheurs)
StatutPublic Benefit Corporation (société à bénéfice public)
FondateursDario Amodei (CEO), Daniela Amodei (Présidente), Chris Olah, et cinq autres anciens d’OpenAI
Valorisation380 Md$ (février 2026, post-Série G)

Histoire

Tout commence par un désaccord. En décembre 2020, Dario Amodei — alors vice-président de la recherche chez OpenAI — et un groupe de collègues proches quittent l’entreprise. Le motif invoqué : une divergence profonde sur les priorités, OpenAI s’accélérant vers des modèles toujours plus grands sans, selon eux, prendre suffisamment au sérieux les risques que cela engendre.

Anthropic est officiellement constituée en 2021, avec une première levée de 124 millions de dollars. Le statut choisi — Public Benefit Corporation — n’est pas anodin : il inscrit juridiquement la mission de sécurité dans les statuts de l’entreprise, au même titre que l’obligation de résultats financiers.

La montée en puissance est rapide. En avril 2022, une Série B de 580 millions de dollars (dont 500 millions apportés par FTX, ce qui deviendra problématique après la faillite de Sam Bankman-Fried en novembre 2022) consolide les moyens. En mars 2023, Claude 1 est lancé publiquement. Google investit dès mai 2023 via la Série C, suivi d’Amazon en septembre 2023 pour 4 milliards de dollars. Ces deux géants du cloud deviennent des partenaires stratégiques : Claude est disponible sur Google Cloud Vertex AI et sur Amazon Bedrock.

Les tours de table s’enchaînent à un rythme qui reflète l’intensité de la course aux modèles de frontier : Série E à 61,5 milliards de valorisation en mars 2025, Série F à 183 milliards en septembre 2025, et Série G à 380 milliards en février 2026 — 30 milliards levés en un seul tour, le deuxième plus important de l’histoire du capital-risque. Les revenus annualisés atteignent 19 milliards de dollars en mars 2026.


Modèles et produits

La famille Claude a évolué en plusieurs générations, chacune apportant des changements significatifs.

Claude 1 (mars 2023) : premier modèle public, fenêtre de contexte de 9 000 tokens, positionné sur la sécurité conversationnelle.

Claude 2 (juillet 2023) : saut majeur avec une fenêtre portée à 100 000 tokens — une première marquante — et de meilleures capacités de raisonnement. La version 2.1 (novembre 2023) double encore ce seuil à 200 000 tokens.

Claude 3 (mars 2024) : introduction de la structure à trois niveaux qui structure encore la gamme aujourd’hui — Opus (le plus puissant), Sonnet (l’équilibre), Haiku (le plus rapide et économique). Ajout de la vision (analyse d’images). À sa sortie, Opus 3 surpasse GPT-4 sur plusieurs benchmarks.

Claude 3.5 Sonnet (juin 2024) : performances supérieures à Claude 3 Opus à un coût moindre, avec des progrès notables en programmation. La version v2 (octobre 2024) introduit Computer Use, une capacité inédite : le modèle peut contrôler une interface graphique (souris, clavier, écran) pour accomplir des tâches autonomes.

Claude 4 (mai 2025) : lancement d’Opus 4 pour les tâches complexes et d’orchestration multi-agents, simultanément à la mise en disponibilité générale de Claude Code.

Opus 4.6 (février 2026) : fenêtre de contexte d’un million de tokens, horizon de complétion de tâches de 14,5 heures, capacités d’orchestration multi-agents poussées.

Sonnet 4.6 (février 2026) : même niveau tarifaire que la génération précédente, avec des performances proches d’Opus pour les tâches analytiques.

Côté produits, Anthropic adresse plusieurs publics :

  • Claude.ai : l’interface web et mobile grand public, équivalent fonctionnel de ChatGPT.
  • API Anthropic : accès direct aux modèles pour les développeurs.
  • Claude Code : outil en ligne de commande permettant de déléguer des tâches de développement à Claude depuis un terminal.
  • Claude Cowork (research preview, janvier 2026) : interface graphique de Claude Code pour les utilisateurs non techniques.

Positionnement

Constitutional AI : l’approche technique d’Anthropic

Le différenciateur le plus cité d’Anthropic est son approche de l’alignement, formalisée sous le nom de Constitutional AI (CAI). Publiée en décembre 2022 (Bai et al., arXiv:2212.08073), la méthode fonctionne ainsi : un ensemble de principes éthiques — une “constitution” — est défini. Le modèle apprend à s’auto-critiquer selon ces principes, et un modèle évaluateur génère les données de préférence pour la phase de renforcement. C’est le RLAIF (Reinforcement Learning from AI Feedback), par opposition au RLHF classique qui repose sur des annotateurs humains.

L’avantage revendiqué : scalabilité, cohérence, et réduction du coût humain. La limite pointée par les critiques : cette approche éloigne la boucle de rétroaction humaine, soulevant des questions sur la légitimité démocratique des valeurs encodées.

En janvier 2026, Anthropic a publié une nouvelle constitution pour Claude, passant d’une approche par règles à une approche par raisonnement : les principes sont explicités, et une hiérarchie à quatre niveaux est établie (sécurité > éthique > conformité aux politiques > utilité). Le document reconnaît formellement la possibilité de conscience et de statut moral de l’IA — une première dans un document officiel d’un grand laboratoire.

Forces et limites

Parmi les forces réelles : les fenêtres de contexte étendues (Anthropic est souvent en avance sur ce point), les capacités agents pour des tâches longues et autonomes, et une réputation de modèles moins enclins aux refus abusifs que certains concurrents.

Parmi les limites : un écosystème tiers moins dense que celui d’OpenAI, une absence de présence dans le matériel (contrairement à Google ou Meta), et une dépendance aux infrastructures cloud de partenaires. La position safety-first est aussi parfois perçue comme une rationalisation d’une participation active à la course aux modèles les plus puissants.


Ce qu’il faut retenir

  • Anthropic est née d’un désaccord sur la priorité accordée à la sécurité dans le développement des LLM, et a inscrit cette mission dans ses statuts juridiques.
  • La société a levé plus de 67 milliards de dollars en cinq ans, avec deux géants du cloud — Google et Amazon — comme partenaires stratégiques.
  • Constitutional AI (RLAIF) est l’approche technique signature d’Anthropic : alignement via auto-critique par constitution, sans annotateurs humains pour la phase de renforcement.
  • La famille Claude se distingue par des fenêtres de contexte larges et des capacités agents poussées (Computer Use, Claude Code, orchestration multi-agents).
  • La valorisation de 380 milliards de dollars place Anthropic parmi les entreprises tech les plus capitalisées, mais la société n’est pas encore rentable et reste dépendante de ses investisseurs pour financer la recherche et le calcul.

Sources