Les États-Unis lancent GPT-OSS : une première dans les modèles open source modernes – Comment se compare-t-il aux alternatives chinoises ?

Les États-Unis lancent GPT-OSS : une première dans les modèles open source modernes – Comment se compare-t-il aux alternatives chinoises ?

Récemment, OpenAI a fait un pas en avant significatif en dévoilant des modèles à poids ouvert, une avancée notable sur un marché largement dominé par les principales sociétés chinoises d’IA.

Les modèles Open Weight d’OpenAI surpassent leurs homologues chinois dans des domaines clés

Les entreprises technologiques américaines commencent à adopter des stratégies utilisées depuis longtemps par leurs homologues chinoises, notamment pour l’intégration de frameworks open source aux grands modèles de langage (LLM).Cette évolution s’inscrit dans les priorités énoncées dans le plan d’action pour l’IA de l’ancien président Trump, qui soulignait l’importance des modèles d’IA open source. OpenAI a ainsi lancé sa série gpt-oss, qui constitue son premier ensemble de modèles open-weight depuis GPT-2, disponible en deux configurations : gpt-oss-20b et gpt-oss-120b.

En examinant les spécifications techniques de ces nouveaux modèles, le gpt-oss-20b affiche un nombre impressionnant de 21 milliards de paramètres et utilise une architecture de transformateur mixte d’experts (MoE).Il offre également une fenêtre contextuelle importante pouvant atteindre 131 072 jetons, ce qui le rend compatible avec les plateformes VRAM de 16 Go et lui permet de fonctionner efficacement sur la plupart des GPU grand public.À l’inverse, le gpt-oss-120b, plus imposant, doté de 117 milliards de paramètres, excelle dans les tâches de raisonnement, mais nécessite une plateforme NVIDIA H100 plus puissante pour des performances optimales.

OpenAI lève 8, 3 milliards de dollars de fonds
Crédits image : OpenAI

Il est important de noter que ces modèles sont distribués sous la licence Apache 2.0, qui autorise leur utilisation commerciale, leur modification et leur redistribution. Leur caractère open source les place au même niveau que leurs homologues chinois. En s’implantant sur ce marché, OpenAI semble réagir stratégiquement aux avancées des entreprises chinoises d’IA, qui développent des écosystèmes open source depuis plusieurs années. Hormis la LLaMA de Meta, les États-Unis ont jusqu’à présent constaté peu de progrès dans les modèles open source traditionnels.

Avec l’incursion d’OpenAI dans les modèles open-weight, de futures versions sont attendues. La comparaison de gpt-oss avec ses alternatives chinoises révèle que, malgré les progrès louables d’OpenAI, les modèles chinois présentent généralement un nombre de paramètres plus élevé. Par exemple, des modèles phares comme DeepSeek V2 et Qwen 3 affichent un nombre de paramètres nettement supérieur :

Catégorie GPT-OSS 120B / 20B DeepSeek-V2 / R1 Qwen3 / Qwen2.5 / QwQ
Organisation OpenAI DeepSeek (Chine) Alibaba (Chine)
Type de modèle MoE clairsemé (mélange d’experts) MoE clairsemé Hybrides denses et MoE
Paramètres totaux 120B / 20B 236B / 67B 235B / 72B / 32B / autres
Paramètres actifs ~5, 1 milliards / ~3, 6 milliards ~21B / ~6, 7B ~22B (Qwen3-235B) / ~3B (Qwen3-30B-A3B)
Fenêtre contextuelle 128 000 jetons 128 000 jetons 128K (Qwen3), 32K (Qwen2.5)

Si le nombre total et actif de paramètres est important, il ne constitue pas le seul facteur déterminant la supériorité d’un modèle. Néanmoins, leurs homologues chinois bénéficient d’un avantage considérable, principalement grâce à leurs années d’expérience. Pour évaluer leurs performances en temps réel, différents benchmarks, dont le MMLU (Massive Multitask Language Understanding) et AIME Math, ont été comparés. Ces évaluations, menées par Clarifai, révèlent des enseignements notables :

Tâche de référence GPT-OSS-120B GLM-4.5 Qwen-3 Pensée DeepSeek R1 Comme K2
MMLU‑Pro (Raisonnement) ~90, 0% 84, 6% 84, 4% 85, 0% 81, 1%
AIME Math (avec outils) ~96, 6–97, 9 % ~91% ~92, 3% ~87, 5% ~49–69%
GPQA (Doctorat en sciences) ~80, 9% 79, 1% 81, 1% 81, 0% 75, 1%
SWE-bench (codage) 62, 4% 64, 2% ~65, 8% ~65, 8%
Banc TAU (Agents) ~67, 8% 79, 7% ~67, 8% ~63, 9% ~70, 6%
BFCL‑v3 (appel de fonction) ~67–68% 77, 8% 71, 9% 37%

Les résultats montrent clairement que gpt-oss excelle dans les tâches de raisonnement et les tâches mathématiques, ce qui en fait un concurrent redoutable parmi ses pairs. De plus, son empreinte de paramètres actifs est plus faible que celle de nombreux modèles denses, ce qui en fait une option plus économique pour les utilisateurs à la recherche de solutions d’IA locales. Cependant, les benchmarks indiquent que pour les tâches agentiques et les capacités multilingues, le modèle gpt-oss-120b reste à la traîne par rapport à certaines alternatives chinoises, tout en restant un concurrent sérieux sur le marché.

L’émergence de modèles ouverts est essentielle pour le secteur de l’IA, car ils favorisent un écosystème plus inclusif. Grâce à cette initiative, OpenAI a le potentiel de renforcer la présence américaine dans un secteur jusqu’alors dominé par les entreprises chinoises. Cette étape importante devrait apporter satisfaction à Sam Altman et à l’équipe d’OpenAI dans ce contexte concurrentiel.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *