Microsoft führt OpenAI O3- und O4-Mini-Modelle auf Azure und GitHub ein

Microsoft führt OpenAI O3- und O4-Mini-Modelle auf Azure und GitHub ein

OpenAI stellt fortschrittliche Reasoning-Modelle vor: o3 und o4-mini

Heute wurde ein bedeutender Fortschritt in der künstlichen Intelligenz erzielt: OpenAI stellte seine hochmodernen Reasoning-Modelle o3 und o4-mini vor. Diese Modelle stellen eine deutliche Verbesserung gegenüber ihren Vorgängern o1 und o3-mini dar und setzen einen neuen Maßstab für die KI-Leistung.

Verfügbarkeit und Preise

Microsoft hat die Veröffentlichung dieser neuen Modelle über den Azure OpenAI Service innerhalb der Azure AI Foundry angekündigt. Die Preisstruktur ist wie folgt:

  • o3-Modell: 10 USD pro Million Eingabetoken; 40 USD pro Million Ausgabetoken.
  • o4-mini-Modell: 1, 10 USD pro Million Eingabetoken; 4, 40 USD pro Million Ausgabetoken.

Weitere wichtige Updates für Foundry heute: o3 und o4-mini von OpenAI werden beide gleichzeitig ausgeliefert und stellen einen großen Fortschritt im KI-Denken dar.https://t.co/gT3rtAhv3i

– Satya Nadella (@satyanadella) 16. April 2025

Erweiterte Funktionen: Vision- und Tool-Unterstützung

Die Implementierungen dieser Modelle bieten spannende neue Funktionen, darunter verbesserte Bildverarbeitungsfunktionen. Erstmals können Nutzer Bildeingaben übermitteln, die sowohl von der Responses API als auch von der Chat Completions API unterstützt werden. Darüber hinaus unterstützen beide Modelle nun umfassende Tools und ermöglichen den parallelen Aufruf von Tools, was ihre Funktionalität erweitert.

Neue Audiomodelle und GitHub-Integration

In Verbindung mit der Einführung von o3 und o4-mini hat Azure OpenAI Service bei Azure AI Foundry neue Audiomodelle in der Region „East US2“ eingeführt, darunter:

  • GPT-4o-Transkription
  • GPT-4o-Mini-Transkription
  • GPT-4o-Mini-TTS

Darüber hinaus hat Microsoft GitHub bestätigt, dass beide Reasoning-Modelle nun in GitHub Copilot und GitHub Models öffentlich verfügbar sind. Das o4-mini-Modell wird in allen kostenpflichtigen GitHub Copilot-Tarifen verfügbar sein, während das o3-Modell für die Enterprise- und Pro+-Tarife eingeführt wird.

Implementierung und Zugriff für Entwickler

Nach der vollständigen Bereitstellung können Benutzer diese neuen Modelle über die Modellauswahl in Visual Studio Code oder den GitHub Copilot Chat auf GitHub auswählen. Darüber hinaus müssen Administratoren in Organisationen, die Copilot Enterprise verwenden, den Zugriff über aktualisierte Richtlinien in den Copilot-Einstellungen aktivieren.

Diese innovativen Modelle sind auch in GitHub-Modelle integriert und ermöglichen Entwicklern, KI-gesteuerte Funktionen nahtlos neben anderen Modellen von Microsoft und Drittanbietern zu erkunden, zu erstellen und bereitzustellen.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert