Google presenta Gemini 2.5 Pro Deep Think, superando i modelli O3 e O4 di OpenAI

Google presenta Gemini 2.5 Pro Deep Think, superando i modelli O3 e O4 di OpenAI

Google I/O 2025: svelati i principali miglioramenti alla serie di modelli Gemini 2.5

Al recente evento Google I/O 2025, Google ha presentato significativi progressi nella sua serie di modelli Gemini 2.5, in particolare l’introduzione della modalità Deep Think di Gemini 2.5 Pro. Questa innovazione promette di superare le prestazioni delle più recenti serie di modelli o3 e o4 di OpenAI nei principali benchmark di intelligenza artificiale, segnando un traguardo notevole nel campo dell’intelligenza artificiale.

Miglioramenti nelle capacità di ragionamento

Sebbene non siano stati annunciati aggiornamenti per il modello Gemini 2.5 Pro, che ha recentemente subito sostanziali aggiornamenti, il lancio della modalità Deep Think rappresenta un cambio di paradigma nelle sue capacità di ragionamento. Questa nuova modalità impiega tecniche di ricerca avanzate per valutare molteplici ipotesi prima di generare una risposta, consentendo una maggiore profondità nella comprensione e nella risoluzione dei problemi.

Prestazioni di riferimento di 2.5 Pro Deep Think

Google ha rivelato risultati di benchmark impressionanti per la modalità Deep Think di Gemini 2.5 Pro, stabilendo nuovi standard di eccellenza:

  • 49, 4% nei parametri di riferimento matematici USAMO del 2025.
  • 80, 4% nel benchmark di codifica a livello competitivo LiveCodeBench.
  • 84, 0% nel benchmark di ragionamento multimodale MMMU.

Questi risultati pongono la modalità Deep Think 2.5 Pro allo stato dell’arte (SOTA), superando le capacità delle attuali offerte di OpenAI. L’accesso a questo modello avanzato sarà inizialmente limitato ai tester affidabili tramite l’API Gemini.

Introduzione di Gemini 2.5 Flash

Oltre agli aggiornamenti 2.5 Pro, Google ha introdotto il modello Gemini 2.5 Flash, progettato per un utilizzo conveniente. Il modello Flash ha dimostrato miglioramenti delle prestazioni in tutti i benchmark principali rispetto al suo predecessore e gli sviluppatori possono visualizzarlo in anteprima in Google AI Studio, Vertex AI per applicazioni aziendali e nell’app Gemini, con un lancio più ampio previsto per giugno.

Miglioramenti all’esperienza degli sviluppatori

Per potenziare la piattaforma Gemini per gli sviluppatori, Google ha anche annunciato diversi miglioramenti chiave:

  • Una nuova anteprima dell’API Live che supporta più altoparlanti, facilitando le funzionalità di conversione da testo a voce con doppia voce tramite output audio nativo.
  • Integrazione delle definizioni del Model Context Protocol (MCP) all’interno dell’API Gemini per un’interoperabilità perfetta con gli strumenti open source.
  • Disponibilità generale di Gemini 2.5 Pro con budget pensanti, presto pronto per applicazioni di produzione stabili.
  • Le capacità di calcolo del Progetto Mariner saranno integrate nell’API Gemini e in Vertex AI.
  • Entrambi i modelli 2.5 Pro e Flash forniranno ora riepiloghi dei pensieri tramite l’API Gemini e Vertex AI.

Per informazioni più approfondite su questi sviluppi, è possibile visualizzare l’annuncio qui.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *