
OpenAI svela modelli di ragionamento avanzati: o3 e o4-mini
La giornata di oggi segna un significativo passo avanti nell’intelligenza artificiale: OpenAI ha introdotto i suoi modelli di ragionamento all’avanguardia, o3 e o4-mini. Questi modelli dimostrano un notevole miglioramento rispetto alle loro precedenti iterazioni, o1 e o3-mini, stabilendo un nuovo punto di riferimento per le prestazioni dell’IA.
Disponibilità e prezzi
Microsoft ha annunciato il rilascio di questi nuovi modelli tramite il servizio Azure OpenAI all’interno di Azure AI Foundry. La struttura tariffaria è la seguente:
- Modello o3: 10 $ per milione di token di input; 40 $ per milione di token di output.
- Modello o4-mini: 1, 10 $ per milione di token in input; 4, 40 $ per milione di token in output.
Altri importanti aggiornamenti per Foundry oggi: o3 e o4-mini di OpenAI sono entrambi in fase di spedizione simultanea, rappresentando un passo avanti nel ragionamento dell’intelligenza artificiale.https://t.co/gT3rtAhv3i
— Satya Nadella (@satyanadella) 16 aprile 2025
Funzionalità avanzate: supporto per la visione e gli strumenti
Le implementazioni di questi modelli offrono nuove interessanti funzionalità, tra cui capacità visive migliorate. Per la prima volta, gli utenti possono inviare input di immagini, supportati sia dall’API Risposte che dall’API Completamento Chat. Inoltre, entrambi i modelli ora supportano strumenti completi e facilitano l’accesso a strumenti paralleli, migliorandone le funzionalità.
Nuovi modelli audio e integrazione con GitHub
In concomitanza con l’introduzione di o3 e o4-mini, Azure OpenAI Service ha implementato nuovi modelli audio nella regione East US2 presso Azure AI Foundry, tra cui:
- GPT-4o-Trascrizione
- GPT-4o-Mini-Trascrizione
- GPT-4o-Mini-TTS
Inoltre, GitHub di Microsoft ha confermato che entrambi i modelli di ragionamento sono ora disponibili pubblicamente in GitHub Copilot e GitHub Models. Il modello o4-mini sarà disponibile su tutti i piani a pagamento di GitHub Copilot, mentre il modello o3 sarà disponibile per i piani Enterprise e Pro+.
Implementazione e accesso per gli sviluppatori
Una volta completata l’implementazione, gli utenti potranno selezionare questi nuovi modelli tramite il selettore modelli in Visual Studio Code o tramite la chat di GitHub Copilot su GitHub. Inoltre, per le organizzazioni che utilizzano Copilot Enterprise, gli amministratori dovranno abilitare l’accesso tramite policy aggiornate nelle impostazioni di Copilot.
Questi modelli innovativi sono inoltre integrati nei modelli GitHub, consentendo agli sviluppatori di esplorare, creare e distribuire funzionalità basate sull’intelligenza artificiale senza soluzione di continuità insieme ad altri modelli Microsoft e di terze parti.
Lascia un commento ▼