OpenAI o3-mini uruchamia się na GitHub Copilot i Microsoft Azure

OpenAI o3-mini uruchamia się na GitHub Copilot i Microsoft Azure

OpenAI wprowadza o3-mini: nowy przełom w modelach rozumowania

OpenAI oficjalnie wprowadził o3-mini, swój najnowszy, ekonomiczny model rozumowania. Ten nowy model został zaprojektowany do wykonywania zadań z wydajnością porównywalną do uznanego modelu o1, wyróżniając się szczególnie w takich obszarach jak matematyka, kodowanie i rozumowanie naukowe. Deweloperzy mogą uzyskać dostęp do o3-mini za pośrednictwem interfejsów API OpenAI, które oferują kompleksowe wsparcie dla wywołań funkcji, ustrukturyzowanych wyników, przesyłania strumieniowego, a także wiadomości dla deweloperów za pośrednictwem interfejsu API Chat Completions, interfejsu API Assistants i interfejsu API Batch.

Integracja z Microsoft Azure

Jednocześnie Microsoft ogłosił, że model o3-mini będzie również dostępny za pośrednictwem usługi Microsoft Azure OpenAI Service. Deweloperzy zainteresowani wykorzystaniem tego zaawansowanego modelu mogą zarejestrować się w Azure AI Foundry.

Eksperckie spostrzeżenia na temat premiery

Yina Arenas, wiceprezes ds.produktów Core AI w firmie Microsoft, podzieliła się swoimi przemyśleniami na temat wprowadzenia na rynek o3-mini, stwierdzając:

o3-mini zapewnia znaczące oszczędności finansowe w porównaniu z o1-mini dzięki ulepszonemu wnioskowaniu, nowym funkcjom, takim jak kontrola wysiłku wnioskowania i narzędzia, zapewniając jednocześnie porównywalną lub lepszą responsywność. Zaawansowane możliwości o3-mini w połączeniu ze wzrostem wydajności czynią z niego potężne narzędzie dla deweloperów i przedsiębiorstw chcących zoptymalizować swoje aplikacje AI.

Ulepszenia w GitHub Copilot

Ponadto, GitHub firmy Microsoft potwierdził wdrożenie o3-mini w GitHub Copilot i GitHub Models dla deweloperów. W porównaniu do swojego poprzednika, o1-mini, deweloperzy mogą oczekiwać lepszej jakości wyników od o3-mini. Model ten jest dostępny dla użytkowników GitHub Copilot Pro, Business i Enterprise za pośrednictwem selektora modeli w Visual Studio Code i na czacie github.com, a w nadchodzących tygodniach planowane jest dalsze wsparcie dla Visual Studio i JetBrains.

Dla subskrybentów GitHub Copilot nowy o3-mini pozwoli użytkownikom na generowanie do 50 wiadomości co 12 godzin. Ponadto administratorzy kont GitHub Business lub Enterprise mogą włączyć dostęp do modelu o3-mini dla członków swojego zespołu za pośrednictwem odpowiednich ustawień administracyjnych.

Możliwości eksploracji na placu zabaw modeli GitHub

GitHub zamierza wzbogacić środowisko programistyczne, wprowadzając o3-mini do platformy GitHub Models, dając użytkownikom możliwość zapoznania się z jego możliwościami i porównania ich z ofertami Cohere, DeepSeek, Meta i Mistral.

Wnioski: Nowa era w rozwoju sztucznej inteligencji

Szeroka dostępność modelu o3-mini na różnych platformach umożliwia deweloperom skuteczne włączanie jego zaawansowanych możliwości rozumowania do swoich aplikacji i usług. Ten innowacyjny model jest gotowy na nowo zdefiniować standardy możliwości AI w fazie rozwoju.

Więcej szczegółów znajdziesz u źródła.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *