
Di recente, OpenAI ha compiuto un passo significativo presentando modelli open-weight, una mossa notevole in un mercato ampiamente dominato dalle principali aziende cinesi di intelligenza artificiale.
I modelli Open-Weight di OpenAI superano le controparti cinesi in aree chiave
Le aziende tecnologiche americane stanno iniziando ad adottare strategie da tempo utilizzate dalle loro controparti cinesi, in particolare nell’integrazione di framework open source con modelli linguistici di grandi dimensioni (LLM).Questo cambiamento è in linea con le priorità articolate nel piano d’azione per l’IA dell’ex presidente Trump, che ha sottolineato l’importanza dei modelli di IA open source. Di conseguenza, OpenAI ha lanciato la sua serie gpt-oss, che rappresenta il suo primo set di modelli open-weight dai tempi di GPT-2, disponibile in due configurazioni: gpt-oss-20b e gpt-oss-120b.
Esaminando le specifiche tecniche di questi nuovi modelli, il gpt-oss-20b vanta ben 21 miliardi di parametri e utilizza un’architettura di trasformatori basata su un mix di esperti (MoE).Offre inoltre una finestra di contesto sostanziale, fino a 131.072 token, che lo rende compatibile con piattaforme VRAM da 16 GB e ne consente l’esecuzione efficiente sulla maggior parte delle GPU di fascia consumer. Al contrario, il gpt-oss-120b, più grande, con ben 117 miliardi di parametri, eccelle nelle attività di ragionamento, ma necessita di una piattaforma NVIDIA H100 più potente per prestazioni ottimali.

È significativo che questi modelli siano distribuiti con licenza Apache 2.0, che garantisce l’autorizzazione per l’uso commerciale, la modifica e la ridistribuzione. Questa natura open source li posiziona in modo simile ai loro equivalenti cinesi. Con l’ingresso di OpenAI in questo settore, sembra che stia rispondendo strategicamente ai progressi compiuti dalle aziende cinesi di intelligenza artificiale, che hanno sviluppato ecosistemi open source per diversi anni. A parte LLaMA di Meta, gli Stati Uniti hanno visto finora pochi sviluppi nei modelli open source tradizionali.
Con l’incursione di OpenAI nei modelli open-weight, ci sono aspettative per le versioni future. Confrontando gpt-oss con le alternative cinesi, si scopre che, sebbene OpenAI abbia compiuto progressi lodevoli, i modelli cinesi presentano in genere un numero di parametri più elevato. Ad esempio, modelli di spicco come DeepSeek V2 e Qwen 3 vantano un numero di parametri significativamente maggiore:
Categoria | GPT‑OSS 120B / 20B | DeepSeek-V2 / R1 | Qwen3 / Qwen2.5 / QwQ |
---|---|---|---|
Organizzazione | OpenAI | DeepSeek (Cina) | Alibaba (Cina) |
Tipo di modello | MoE sparso (misto di esperti) | MoE sparso | Ibridi densi e MoE |
Parametri totali | 120B / 20B | 236B / 67B | 235B / 72B / 32B / altri |
Parametri attivi | ~5, 1 miliardi / ~3, 6 miliardi | ~21 miliardi / ~6, 7 miliardi | ~22B (Qwen3-235B) / ~3B (Qwen3-30B-A3B) |
Finestra di contesto | 128K token | 128K token | 128K (Qwen3), 32K (Qwen2.5) |
Sebbene il conteggio dei parametri totali e attivi sia importante, non è l’unico fattore che determina la superiorità di un modello. Ciononostante, le controparti cinesi hanno un vantaggio considerevole, dovuto principalmente ai loro anni di esperienza. Per valutare le loro prestazioni in tempo reale, sono stati confrontati vari benchmark, tra cui MMLU (Massive Multitask Language Understanding) e AIME Math. Queste valutazioni sono state condotte da Clarifai e rivelano spunti notevoli:
Attività di benchmark | GPT‑OSS‑120B | GLM‑4.5 | Pensiero Qwen-3 | DeepSeek R1 | Come K2 |
---|---|---|---|---|---|
MMLU‑Pro (Ragionamento) | ~90, 0% | 84, 6% | 84, 4% | 85, 0% | 81, 1% |
AIME Math (con strumenti) | ~96, 6–97, 9% | ~91% | ~92, 3% | ~87, 5% | ~49–69% |
GPQA (Dottorato di Ricerca in Scienze) | ~80, 9% | 79, 1% | 81, 1% | 81, 0% | 75, 1% |
SWE-bench (Codifica) | 62, 4% | 64, 2% | — | ~65, 8% | ~65, 8% |
TAU-bench (Agenti) | ~67, 8% | 79, 7% | ~67, 8% | ~63, 9% | ~70, 6% |
BFCL‑v3 (chiamata di funzione) | ~67–68% | 77, 8% | 71, 9% | 37% | — |
I risultati mostrano chiaramente che gpt-oss eccelle nel ragionamento e nelle attività matematiche, posizionandosi come un concorrente formidabile all’interno del suo gruppo di pari. Inoltre, ha un footprint di parametri attivi inferiore rispetto a molti modelli densi, il che lo rende un’opzione più economica per gli utenti che cercano soluzioni di intelligenza artificiale locali. Tuttavia, i benchmark indicano che per le attività agentiche e le capacità multilingue, il modello gpt-oss-120b è ancora indietro rispetto ad alcune alternative cinesi, pur rimanendo un forte concorrente sul mercato.
L’emergere di modelli open-weight è vitale per il settore dell’intelligenza artificiale, poiché promuove un ecosistema più inclusivo. Con questa iniziativa, OpenAI ha il potenziale per rafforzare la presenza degli Stati Uniti in un’arena precedentemente dominata da organizzazioni cinesi. Questo traguardo sarà probabilmente motivo di soddisfazione per Sam Altman e il team di OpenAI, che si troveranno ad affrontare questo panorama competitivo.
Lascia un commento