
OpenAI revela modelos avançados de raciocínio: o3 e o4-mini
O dia de hoje marca um avanço significativo na inteligência artificial, com a OpenAI apresentando seus modelos de raciocínio de ponta, o3 e o4-mini. Esses modelos demonstram uma melhoria notável em relação às suas iterações anteriores, o1 e o3-mini, estabelecendo um novo padrão para o desempenho da IA.
Disponibilidade e preços
A Microsoft anunciou o lançamento desses novos modelos por meio do Serviço Azure OpenAI, dentro do Azure AI Foundry. A estrutura de preços é a seguinte:
- Modelo o3: US$ 10 por milhão de tokens de entrada; US$ 40 por milhão de tokens de saída.
- Modelo o4-mini: US$ 1, 10 por milhão de tokens de entrada; US$ 4, 40 por milhão de tokens de saída.
Mais grandes atualizações para o Foundry hoje: o3 e o4-mini da OpenAI estão sendo enviados simultaneamente, proporcionando um salto à frente no raciocínio de IA.https://t.co/gT3rtAhv3i
-Satya Nadella (@satyanadella) 16 de abril de 2025
Recursos aprimorados: suporte a visão e ferramentas
As implementações desses modelos trazem novos recursos interessantes, incluindo recursos de visão aprimorados. Pela primeira vez, os usuários podem enviar entradas de imagem, que são suportadas tanto pela API de Respostas quanto pela API de Complementação de Chat. Além disso, ambos os modelos agora oferecem suporte a ferramentas abrangentes e facilitam a chamada paralela de ferramentas, aprimorando sua funcionalidade.
Novos modelos de áudio e integração com o GitHub
Junto com a introdução do o3 e do o4-mini, o Azure OpenAI Service lançou novos modelos de áudio na região East US2 no Azure AI Foundry, incluindo:
- GPT-4o-Transcrever
- GPT-4o-Mini-Transcrever
- GPT-4o-Mini-TTS
Além disso, o GitHub da Microsoft confirmou que ambos os modelos de raciocínio estão agora disponíveis publicamente no GitHub Copilot e no GitHub Models. O modelo o4-mini estará disponível em todos os planos pagos do GitHub Copilot, enquanto o modelo o3 será implementado nos planos Enterprise e Pro+.
Implementação e acesso para desenvolvedores
Após a implantação completa, os usuários poderão selecionar esses novos modelos por meio do seletor de modelos no Visual Studio Code ou do GitHub Copilot Chat no GitHub. Além disso, para organizações que usam o Copilot Enterprise, os administradores precisarão habilitar o acesso por meio de políticas atualizadas nas configurações do Copilot.
Esses modelos inovadores também são integrados aos Modelos do GitHub, permitindo que os desenvolvedores explorem, criem e implantem recursos baseados em IA perfeitamente junto com outros modelos da Microsoft e de terceiros.
Deixe um comentário ▼