OpenAI o3-mini viene lanciato su GitHub Copilot e Microsoft Azure

OpenAI o3-mini viene lanciato su GitHub Copilot e Microsoft Azure

OpenAI lancia o3-mini: una nuova svolta nei modelli di ragionamento

OpenAI ha ufficialmente introdotto o3-mini, il suo più recente modello di ragionamento conveniente. Questo nuovo modello è progettato per eseguire attività con efficienza comparabile al modello o1 acclamato, eccellendo in particolare in aree come matematica, codifica e ragionamento scientifico. Gli sviluppatori possono accedere a o3-mini tramite le API di OpenAI che offrono un supporto completo per chiamate di funzione, output strutturati, streaming, nonché messaggistica per sviluppatori tramite Chat Completions API, Assistants API e Batch API.

Integrazione con Microsoft Azure

Contemporaneamente, Microsoft ha annunciato che il modello o3-mini sarà accessibile anche tramite il servizio Microsoft Azure OpenAI. Gli sviluppatori interessati a sfruttare questo modello avanzato possono registrarsi ad Azure AI Foundry.

Approfondimenti degli esperti sul lancio

Yina Arenas, Vice President of Product for Core AI presso Microsoft, ha condiviso le sue riflessioni sull’introduzione dell’o3-mini, affermando:

o3-mini offre notevoli efficienze sui costi rispetto a o1-mini grazie al ragionamento migliorato, con nuove funzionalità come il controllo dello sforzo di ragionamento e strumenti, garantendo al contempo una reattività paragonabile o migliore. Le funzionalità avanzate di o3-mini, unite ai suoi guadagni in termini di efficienza, lo rendono uno strumento potente per sviluppatori e aziende che desiderano ottimizzare le proprie applicazioni di intelligenza artificiale.

Miglioramenti in GitHub Copilot

Inoltre, GitHub di Microsoft ha confermato l’implementazione di o3-mini all’interno di GitHub Copilot e GitHub Models per gli sviluppatori. Rispetto al suo predecessore, o1-mini, gli sviluppatori possono aspettarsi una qualità di output migliorata da o3-mini. Questo modello è accessibile agli utenti di GitHub Copilot Pro, Business ed Enterprise tramite il selettore di modelli in Visual Studio Code e sulla chat di github.com, con ulteriore supporto pianificato per Visual Studio e JetBrains nelle prossime settimane.

Per gli abbonati a GitHub Copilot, il nuovo o3-mini consentirà agli utenti di generare fino a 50 messaggi ogni 12 ore. Inoltre, gli amministratori degli account GitHub Business o Enterprise possono abilitare l’accesso al modello o3-mini per i membri del loro team tramite le rispettive impostazioni di amministrazione.

Opportunità di esplorazione nel GitHub Models Playground

GitHub arricchirà l’esperienza degli sviluppatori introducendo o3-mini nel GitHub Models Playground, offrendo agli utenti l’opportunità di esplorarne le capacità e confrontarle con le offerte di Cohere, DeepSeek, Meta e Mistral.

Conclusione: una nuova era per lo sviluppo dell’intelligenza artificiale

La disponibilità diffusa del modello o3-mini su diverse piattaforme consente agli sviluppatori di incorporare le sue capacità di ragionamento avanzate nelle loro applicazioni e nei loro servizi in modo efficace. Questo modello innovativo è pronto a ridefinire gli standard delle capacità di IA nello sviluppo.

Per maggiori dettagli, visita la fonte.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *