Google stellt Gemini 2.5 Pro Deep Think vor und übertrifft damit die Modelle O3 und O4 von OpenAI

Google stellt Gemini 2.5 Pro Deep Think vor und übertrifft damit die Modelle O3 und O4 von OpenAI

Google I/O 2025: Wichtige Verbesserungen der Gemini 2.5-Modellreihe vorgestellt

Auf der jüngsten Google I/O 2025 präsentierte Google bedeutende Weiterentwicklungen seiner Gemini 2.5-Modellreihe, insbesondere die Einführung des Gemini 2.5 Pro Deep Think-Modus. Diese Innovation soll die Leistung der neuesten OpenAI-Modellreihen o3 und o4 in wichtigen KI-Benchmarks übertreffen und stellt damit einen bemerkenswerten Erfolg im Bereich der künstlichen Intelligenz dar.

Verbesserungen der Denkfähigkeiten

Obwohl für das kürzlich umfassend verbesserte Gemini 2.5 Pro-Modell keine Updates angekündigt wurden, stellt die Einführung des Deep Think-Modus einen Paradigmenwechsel in seinen Denkfähigkeiten dar. Dieser neue Modus nutzt fortschrittliche Forschungstechniken, um mehrere Hypothesen zu bewerten, bevor eine Antwort generiert wird. Dies ermöglicht ein tieferes Verständnis und eine bessere Problemlösung.

Benchmark-Leistung von 2.5 Pro Deep Think

Google hat beeindruckende Benchmark-Ergebnisse für den Deep Think-Modus des Gemini 2.5 Pro veröffentlicht und damit neue Maßstäbe gesetzt:

  • 49, 4 % bei den Mathematik-Benchmarks der USAMO 2025.
  • 80, 4 % beim LiveCodeBench-Codierungsbenchmark auf Wettbewerbsniveau.
  • 84, 0 % beim MMMU-Benchmark für multimodales Denken.

Diese Erfolge machen den 2.5 Pro Deep Think-Modus zum modernsten Modell (SOTA) und übertreffen die Möglichkeiten der aktuellen OpenAI-Angebote. Der Zugriff auf dieses fortschrittliche Modell ist zunächst vertrauenswürdigen Testern über die Gemini-API vorbehalten.

Einführung von Gemini 2.5 Flash

Zusätzlich zu den 2.5 Pro-Updates hat Google das Gemini 2.5 Flash-Modell vorgestellt, das für eine kostengünstige Nutzung konzipiert ist. Das Flash-Modell zeigte im Vergleich zum Vorgängermodell Leistungsverbesserungen in allen wichtigen Benchmarks. Entwickler können es in Google AI Studio, Vertex AI für Unternehmensanwendungen und der Gemini-App testen. Die breitere Einführung ist für Juni geplant.

Verbesserungen der Entwicklererfahrung

Um die Gemini-Plattform für Entwickler zu verbessern, hat Google außerdem mehrere wichtige Verbesserungen angekündigt:

  • Eine neue Live-API-Vorschau, die mehrere Sprecher unterstützt und Text-to-Speech-Funktionen mit zwei Stimmen durch native Audioausgabe ermöglicht.
  • Integration von Model Context Protocol (MCP)-Definitionen in die Gemini-API für nahtlose Interoperabilität mit Open-Source-Tools.
  • Die allgemeine Verfügbarkeit von Gemini 2.5 Pro mit durchdachten Budgets, bald bereit für stabile Produktionsanwendungen.
  • Die Rechenkapazitäten von Project Mariner werden in die Gemini API und Vertex AI integriert.
  • Sowohl die 2.5 Pro- als auch die Flash-Modelle bieten jetzt Gedankenzusammenfassungen über die Gemini-API und Vertex AI.

Ausführlichere Informationen zu diesen Entwicklungen finden Sie in der Ankündigung hier.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert