
Google I/O 2025: Wichtige Verbesserungen der Gemini 2.5-Modellreihe vorgestellt
Auf der jüngsten Google I/O 2025 präsentierte Google bedeutende Weiterentwicklungen seiner Gemini 2.5-Modellreihe, insbesondere die Einführung des Gemini 2.5 Pro Deep Think-Modus. Diese Innovation soll die Leistung der neuesten OpenAI-Modellreihen o3 und o4 in wichtigen KI-Benchmarks übertreffen und stellt damit einen bemerkenswerten Erfolg im Bereich der künstlichen Intelligenz dar.
Verbesserungen der Denkfähigkeiten
Obwohl für das kürzlich umfassend verbesserte Gemini 2.5 Pro-Modell keine Updates angekündigt wurden, stellt die Einführung des Deep Think-Modus einen Paradigmenwechsel in seinen Denkfähigkeiten dar. Dieser neue Modus nutzt fortschrittliche Forschungstechniken, um mehrere Hypothesen zu bewerten, bevor eine Antwort generiert wird. Dies ermöglicht ein tieferes Verständnis und eine bessere Problemlösung.
Benchmark-Leistung von 2.5 Pro Deep Think
Google hat beeindruckende Benchmark-Ergebnisse für den Deep Think-Modus des Gemini 2.5 Pro veröffentlicht und damit neue Maßstäbe gesetzt:
- 49, 4 % bei den Mathematik-Benchmarks der USAMO 2025.
- 80, 4 % beim LiveCodeBench-Codierungsbenchmark auf Wettbewerbsniveau.
- 84, 0 % beim MMMU-Benchmark für multimodales Denken.
Diese Erfolge machen den 2.5 Pro Deep Think-Modus zum modernsten Modell (SOTA) und übertreffen die Möglichkeiten der aktuellen OpenAI-Angebote. Der Zugriff auf dieses fortschrittliche Modell ist zunächst vertrauenswürdigen Testern über die Gemini-API vorbehalten.
Einführung von Gemini 2.5 Flash
Zusätzlich zu den 2.5 Pro-Updates hat Google das Gemini 2.5 Flash-Modell vorgestellt, das für eine kostengünstige Nutzung konzipiert ist. Das Flash-Modell zeigte im Vergleich zum Vorgängermodell Leistungsverbesserungen in allen wichtigen Benchmarks. Entwickler können es in Google AI Studio, Vertex AI für Unternehmensanwendungen und der Gemini-App testen. Die breitere Einführung ist für Juni geplant.
Verbesserungen der Entwicklererfahrung
Um die Gemini-Plattform für Entwickler zu verbessern, hat Google außerdem mehrere wichtige Verbesserungen angekündigt:
- Eine neue Live-API-Vorschau, die mehrere Sprecher unterstützt und Text-to-Speech-Funktionen mit zwei Stimmen durch native Audioausgabe ermöglicht.
- Integration von Model Context Protocol (MCP)-Definitionen in die Gemini-API für nahtlose Interoperabilität mit Open-Source-Tools.
- Die allgemeine Verfügbarkeit von Gemini 2.5 Pro mit durchdachten Budgets, bald bereit für stabile Produktionsanwendungen.
- Die Rechenkapazitäten von Project Mariner werden in die Gemini API und Vertex AI integriert.
- Sowohl die 2.5 Pro- als auch die Flash-Modelle bieten jetzt Gedankenzusammenfassungen über die Gemini-API und Vertex AI.
Ausführlichere Informationen zu diesen Entwicklungen finden Sie in der Ankündigung hier.
Schreibe einen Kommentar