
Google I/O 2025: zaprezentowano główne udoskonalenia serii modeli Gemini 2.5
Podczas niedawnego wydarzenia Google I/O 2025 firma Google zaprezentowała znaczące postępy w swojej serii modeli Gemini 2.5, a szczególnie wprowadzenie trybu Gemini 2.5 Pro Deep Think. Ta innowacja ma przewyższać wydajność najnowszych serii modeli o3 i o4 firmy OpenAI w kluczowych testach porównawczych AI, co stanowi znaczące osiągnięcie w dziedzinie sztucznej inteligencji.
Ulepszenia w zakresie możliwości rozumowania
Chociaż nie ogłoszono żadnych aktualizacji dla modelu Gemini 2.5 Pro, który niedawno przeszedł znaczące ulepszenia, wprowadzenie trybu Deep Think oznacza zmianę paradygmatu w jego możliwościach rozumowania. Ten nowy tryb wykorzystuje zaawansowane techniki badawcze do oceny wielu hipotez przed wygenerowaniem odpowiedzi, co pozwala na głębsze zrozumienie i rozwiązywanie problemów.
Wydajność testu porównawczego 2.5 Pro Deep Think
Google ujawniło imponujące wyniki testów porównawczych dla trybu Deep Think w Gemini 2.5 Pro, wyznaczając nowe standardy doskonałości:
- 49, 4% w testach matematycznych USAMO z 2025 r.
- 80, 4% w teście kodowania LiveCodeBench na poziomie konkurencji.
- 84, 0% w teście rozumowania multimodalnego MMMU.
Te osiągnięcia ustanawiają tryb 2.5 Pro Deep Think jako najnowocześniejszy (SOTA), przewyższający możliwości obecnych ofert OpenAI. Dostęp do tego zaawansowanego modelu będzie początkowo ograniczony do zaufanych testerów za pośrednictwem API Gemini.
Wprowadzenie Gemini 2.5 Flash
Oprócz aktualizacji 2.5 Pro, Google wprowadził model Gemini 2.5 Flash, zaprojektowany z myślą o ekonomicznym użytkowaniu. Model Flash wykazał poprawę wydajności we wszystkich kluczowych testach porównawczych w porównaniu do swojego poprzednika, a programiści mogą go obejrzeć w Google AI Studio, Vertex AI dla aplikacji korporacyjnych i aplikacji Gemini, a szersze wdrożenie zaplanowano na czerwiec.
Ulepszenia w środowisku programistycznym
Aby udoskonalić platformę Gemini dla programistów, Google ogłosiło również kilka kluczowych udoskonaleń:
- Nowa wersja podglądu Live API obsługuje wielu mówców, ułatwiając korzystanie z funkcji zamiany tekstu na mowę za pomocą dwóch głosów i natywnego wyjścia audio.
- Integracja definicji protokołu Model Context Protocol (MCP) w ramach interfejsu API Gemini zapewnia bezproblemową współpracę z narzędziami typu open source.
- Ogólna dostępność Gemini 2.5 Pro z myślą o budżetach, wkrótce gotowy do stabilnych zastosowań produkcyjnych.
- Możliwości obliczeniowe projektu Mariner zostaną zintegrowane z API Gemini i Vertex AI.
- Zarówno modele 2.5 Pro, jak i Flash będą teraz udostępniać podsumowania przemyśleń za pośrednictwem interfejsu API Gemini i Vertex AI.
Bardziej szczegółowe informacje na temat tych wydarzeń można znaleźć w ogłoszeniu tutaj.
Dodaj komentarz