En bref

Le mot “open source” appliqué aux LLM recouvre des réalités très différentes. La plupart des modèles présentés comme ouverts ne publient que leurs poids — pas leurs données d’entraînement, parfois pas leur code, et presque jamais sous une licence véritablement libre. En 2025, l’écart de performance avec les modèles propriétaires s’est considérablement réduit, mais le débat sur ce qu’implique “l’ouverture” reste entier : juridiquement, politiquement, et en matière de sécurité.


La confusion de vocabulaire qui change tout

Quand Meta annonce que Llama est “open source”, ou quand DeepSeek publie R1 sous licence MIT, le mot “open” ne désigne pas la même chose dans les deux cas. Cette confusion n’est pas anodine : elle conditionne ce qu’un développeur peut faire avec le modèle, ce qu’une entreprise peut auditer, et ce qu’un régulateur peut exiger.

Il faut distinguer trois niveaux :

Open weights : les poids du modèle sont publiés. On peut les télécharger, les faire tourner en local, parfois les modifier. Mais les données d’entraînement restent opaques, la licence peut être restrictive, et le code d’entraînement n’est pas toujours disponible. C’est le cas de Llama 4 (Meta) et Gemma (Google).

Open source partiel : poids + code + description des données, sous licence permissive. Mistral et Qwen entrent dans cette catégorie. On peut reproduire le pipeline, sans avoir accès aux données elles-mêmes.

Fully open : poids, code, et données d’entraînement publiés intégralement. Seuls quelques modèles académiques atteignent ce niveau : OLMo (Allen Institute for AI), Pythia (EleutherAI), les modèles LLM360. Ce sont des exceptions.

L’Open Source Initiative (OSI) a tenté de formaliser tout cela avec sa définition de l’Open Source AI (OSAID v1.0), publiée en octobre 2024. Sa position centrale : elle n’exige pas la publication des données d’entraînement elles-mêmes, seulement une description suffisante pour reconstruire un système équivalent. Cette concession au réalisme économique — les datasets frontier coûtent des milliards — a provoqué des protestations, notamment de la Software Freedom Conservancy, qui y voit un affaiblissement des principes fondateurs du logiciel libre.

Résultat : les seuls modèles validés par l’OSI sont Pythia, OLMo, Amber, CrystalCoder et T5. Llama 2, Grok, Phi-2, Mixtral échouent au test.


Un panorama de licences hétérogène

La licence détermine ce qu’on a le droit de faire, pas seulement ce qui est techniquement accessible.

ModèleLicenceLiberté effective
Llama 4 (Meta)Llama Community LicenseInterdit aux orgs >700M utilisateurs actifs mensuels ; interdit de former des modèles concurrents
Mistral Large 3Apache 2.0Usage commercial libre
Qwen3 (Alibaba)Apache 2.0Usage commercial libre, pas de limite d’utilisateurs
Gemma (Google)Gemma Terms of UseUsage commercial avec restrictions
DeepSeek V3/R1MITQuasi-aucune restriction
Falcon (TII)Apache 2.0Usage commercial libre

La licence Llama mérite attention. Meta se présente comme champion de l’IA ouverte, mais sa licence exclut précisément les acteurs qui pourraient utiliser Llama pour lui faire concurrence directe. Ce n’est pas de l’open source au sens OSI : c’est une stratégie d’écosystème — rendre le modèle accessible aux développeurs individuels et aux PME, tout en protégeant le terrain commercial de Meta.


L’écart de performance se referme

Pendant longtemps, le choix entre open source et propriétaire était aussi un choix de qualité. Ce n’est plus aussi simple.

L’écart MMLU entre le meilleur modèle open source et le meilleur modèle propriétaire est passé de 17,5 points de pourcentage à 0,3 points en l’espace d’un an. Sur les benchmarks mathématiques, Kimi K2.5 atteint 96 % sur AIME 2025. Sur le code, les meilleurs modèles open source touchent 90 % sur LiveCodeBench.

L’événement déclencheur a été la sortie de DeepSeek-R1 en janvier 2025. Ce modèle, publié sous licence MIT, a rivalisé avec GPT-4o sur plusieurs benchmarks avec un coût de calcul bien inférieur. À l’annonce, le Nasdaq a chuté de 3,1 %. DeepSeek a démontré qu’une ingénierie algorithmique rigoureuse peut compenser l’accès limité aux GPU de pointe — ce qui fragilise la thèse selon laquelle la puissance de calcul brute garantit la supériorité propriétaire.

L’avantage de coût reste réel : 0,83 dollar par million de tokens en moyenne pour l’open source, contre 6,03 dollars pour le propriétaire — soit 86 % d’économies. Sur infrastructure optimisée, la latence des modèles open source peut atteindre 3 000 tokens par seconde, contre 600 pour les APIs propriétaires.

Un écart persiste cependant. Selon whatllm.org, le meilleur modèle open source (MiniMax-M2, score 61) reste légèrement en dessous du meilleur propriétaire (GPT-5, score 68). La méthodologie de ce classement n’est pas entièrement détaillée.


Ce que l’open source rend possible

Déploiement local et souveraineté des données. Un modèle open weights peut tourner sur des serveurs internes, sans aucune donnée transmise vers une API externe. C’est l’argument central pour la finance, la santé, la défense, les administrations. Plusieurs pays construisent des stratégies d‘“IA souveraine” sur cette base — l’UE étant un exemple visible.

Fine-tuning libre. Adapter un modèle à un domaine métier spécifique requiert l’accès aux poids. Sur un modèle propriétaire, les outils de fine-tuning sont limités, contrôlés par l’opérateur, et dépendants de son calendrier. Sur un modèle ouvert, l’adaptation est totale.

Auditabilité. L’inspection des poids permet de détecter des comportements non documentés, de vérifier la conformité réglementaire, d’identifier d’éventuelles portes dérobées. Cet argument pèse dans les secteurs régulés.

Absence de dépendance fournisseur. Aucune dépendance à un fournisseur unique. Portabilité entre clouds. Pas de frais d’API pour les volumes élevés.


Ce que l’open source complique

Le double usage. Un modèle publié peut être téléchargé, modifié, et redéployé sans les filtres de sécurité d’origine. Les protections intégrées par RLHF peuvent être supprimées par fine-tuning. Les usages cités : génération de logiciels malveillants, hameçonnage industriel, désinformation, aide à la fabrication d’armes biologiques. Les données empiriques sur la facilité réelle de ces opérations restent peu documentées.

L’irréversibilité. Une fois publié, un modèle ne peut pas être “retiré”. Contrairement à une API propriétaire dont l’accès peut être révoqué, un modèle ouvert est dans la nature de façon permanente. OpenAI et Anthropic défendent que les modèles propriétaires permettent un contrôle post-déploiement — surveillance, mise à jour des guardrails, révocation d’accès — qui est structurellement impossible en open source.

La responsabilité diffuse. Le droit n’a pas tranché la question de la responsabilité du développeur original pour les usages malveillants d’un modèle modifié par un tiers. La comparaison avec le logiciel libre est contestée : le potentiel de dommage d’un LLM est jugé différent d’une bibliothèque logicielle.

La concentration paradoxale. L’open source ne supprime pas la concentration — il la déplace. Publier un modèle frontier reste hors de portée de tout acteur sans accès massif au compute. Les principaux publiants sont Meta, Alibaba, Google, Microsoft. Les modèles académiques véritablement ouverts (OLMo, Pythia) sont produits par des acteurs aux ressources limitées, et ne rivalisent pas avec les frontier models en performance. L’open source garantit la liberté d’utilisation, pas la capacité d’innover au niveau le plus élevé.


L’EU AI Act et le cas de l’exemption

L’EU AI Act (applicable aux modèles GPAI à partir du 2 août 2025) prévoit une exemption partielle pour les modèles open source. Conditions : licence véritablement libre, pas de monétisation directe, poids, architecture et usage publics.

Il existe une exception à l’exception. Les modèles présentant des “risques systémiques” ne bénéficient pas de l’exemption, même s’ils sont open source. La définition de “risque systémique” dans le texte réglementaire reste floue : aucun critère quantitatif public n’a été publié par la Commission européenne. Un modèle open source de grande taille pourrait théoriquement être soumis aux mêmes obligations qu’un modèle propriétaire.

Une obligation s’applique à tous, quel que soit le statut : conformité au droit d’auteur européen sur l’ensemble du cycle de vie du modèle. Les modèles déjà sur le marché avant le 2 août 2025 disposent d’un délai jusqu’au 2 août 2027.


L’écosystème Hugging Face comme observatoire

Hugging Face est devenu l’infrastructure centrale de l’open source LLM : 13 millions d’utilisateurs, 2 millions de modèles publics, 500 000 datasets en 2025. Les chiffres révèlent une concentration interne : 0,01 % des modèles représentent 49,6 % des téléchargements.

La géographie des usages est instructive. La Chine dépasse les États-Unis en téléchargements mensuels (environ 41 %). Qwen (Alibaba) compte 113 000 modèles dérivés sur la plateforme, loin devant Llama (27 000) et DeepSeek (6 000). Plus de 30 % des entreprises Fortune 500 ont des comptes vérifiés sur Hugging Face.

Ces données illustrent le paradoxe géopolitique : l’open source mondial est en partie structuré autour de modèles produits en Chine, sous des licences permissives, téléchargés massivement par des développeurs du monde entier. Les contrôles à l’export américains sur les GPU sont partiellement contournés par l’efficacité algorithmique — c’est précisément ce que DeepSeek a démontré.


Ce qu’il faut retenir

  • “Open source” pour les LLM est un terme qui recouvre au moins trois réalités distinctes : open weights, open source partiel, et fully open. Seuls quelques modèles académiques satisfont pleinement les critères OSI.
  • La licence conditionne les usages réels. Apache 2.0 et MIT offrent une liberté maximale. La Llama Community License protège les intérêts commerciaux de Meta malgré une présentation “open”.
  • L’écart de performance avec les modèles propriétaires s’est réduit drastiquement en 2025. Le coût reste l’avantage compétitif le plus solide de l’open source.
  • Les avantages concrets : souveraineté des données, fine-tuning sans dépendance, auditabilité, absence de dépendance fournisseur.
  • Les risques réels : double usage sans guardrails, irréversibilité de la publication, responsabilité juridique non résolue.
  • L’EU AI Act prévoit une exemption pour l’open source, mais les modèles à “risque systémique” n’en bénéficient pas — et cette catégorie reste à définir précisément.
  • La concentration structurelle persiste : seuls les acteurs avec un compute frontier peuvent publier des modèles frontier. L’open source déplace la concentration, il ne la supprime pas.

Sources