OpenAI o3-mini startet auf GitHub Copilot und Microsoft Azure

OpenAI o3-mini startet auf GitHub Copilot und Microsoft Azure

OpenAI bringt o3-mini auf den Markt: Ein neuer Durchbruch bei Reasoning-Modellen

OpenAI hat offiziell o3-mini vorgestellt, sein neuestes kosteneffizientes Reasoning-Modell. Dieses neue Modell ist darauf ausgelegt, Aufgaben mit vergleichbarer Effizienz wie das gefeierte o1- Modell auszuführen und zeichnet sich insbesondere in Bereichen wie Mathematik, Codierung und wissenschaftlichem Denken aus. Entwickler können über die APIs von OpenAI auf o3-mini zugreifen, die umfassende Unterstützung für Funktionsaufrufe, strukturierte Ausgaben, Streaming sowie Entwicklernachrichten über die Chat Completions API, Assistants API und Batch API bieten.

Integration mit Microsoft Azure

Gleichzeitig hat Microsoft angekündigt, dass das o3-mini-Modell auch über den Microsoft Azure OpenAI Service zugänglich sein wird. Entwickler, die dieses fortschrittliche Modell nutzen möchten, können sich für die Azure AI Foundry anmelden.

Experteneinblicke zum Start

Yina Arenas, Vice President of Product für Core AI bei Microsoft, teilte ihre Gedanken zur Einführung des o3-mini mit und erklärte:

o3-mini sorgt im Vergleich zu o1-mini durch verbessertes Reasoning und neue Funktionen wie Kontrolle des Reasoning-Aufwands und Tools für erhebliche Kosteneffizienz und bietet gleichzeitig eine vergleichbare oder bessere Reaktionsfähigkeit. Die erweiterten Funktionen von o3-mini in Kombination mit der Effizienzsteigerung machen es zu einem leistungsstarken Tool für Entwickler und Unternehmen, die ihre KI-Anwendungen optimieren möchten.

Verbesserungen in GitHub Copilot

Darüber hinaus hat Microsoft GitHub die Bereitstellung von o3-mini innerhalb von GitHub Copilot und GitHub Models für Entwickler bestätigt. Im Vergleich zu seinem Vorgänger o1-mini können Entwickler von o3-mini eine verbesserte Ausgabequalität erwarten. Dieses Modell ist für Benutzer von GitHub Copilot Pro, Business und Enterprise über den Modellwähler in Visual Studio Code und im Chat auf github.com zugänglich. Weitere Unterstützung für Visual Studio und JetBrains ist in den kommenden Wochen geplant.

Für Abonnenten von GitHub Copilot ermöglicht das neue o3-mini, alle 12 Stunden bis zu 50 Nachrichten zu generieren. Darüber hinaus können Administratoren von GitHub Business- oder Enterprise-Konten ihren Teammitgliedern über ihre jeweiligen Administratoreinstellungen den Zugriff auf das o3-mini-Modell ermöglichen.

Erkundungsmöglichkeiten im GitHub Models Playground

GitHub möchte die Entwicklererfahrung bereichern, indem es den o3-mini in den GitHub Models-Spielplatz einführt und Benutzern die Möglichkeit gibt, seine Funktionen zu erkunden und sie mit Angeboten von Cohere, DeepSeek, Meta und Mistral zu vergleichen.

Fazit: Eine neue Ära für die KI-Entwicklung

Die weitverbreitete Verfügbarkeit des o3-mini-Modells auf verschiedenen Plattformen ermöglicht es Entwicklern, dessen erweiterte Denkfähigkeiten effektiv in ihre Anwendungen und Dienste zu integrieren. Dieses innovative Modell ist bereit, die Standards der KI-Fähigkeiten in der Entwicklung neu zu definieren.

Weitere Einzelheiten finden Sie in der Quelle.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert