EUA lançam GPT-OSS: uma inovação em modelos modernos de código aberto. Como ele se compara às alternativas chinesas?

EUA lançam GPT-OSS: uma inovação em modelos modernos de código aberto. Como ele se compara às alternativas chinesas?

Recentemente, a OpenAI fez um avanço significativo ao revelar modelos de peso aberto, um movimento notável em um mercado amplamente dominado por empresas chinesas líderes em IA.

Os modelos de peso aberto da OpenAI superam os modelos chineses em áreas-chave

As empresas de tecnologia americanas estão começando a adotar estratégias que já são utilizadas há muito tempo por suas contrapartes chinesas, particularmente na integração de estruturas de código aberto com modelos de linguagem de grande porte (LLMs).Essa mudança está alinhada às prioridades articuladas no plano de ação de IA do ex-presidente Trump, que enfatizou a importância dos modelos de IA de código aberto. Como resultado, a OpenAI lançou sua série gpt-oss, representando seu primeiro conjunto de modelos de peso aberto desde o GPT-2, disponível em duas configurações: gpt-oss-20b e gpt-oss-120b.

Analisando as especificações técnicas desses novos modelos, o gpt-oss-20b ostenta impressionantes 21 bilhões de parâmetros e utiliza uma arquitetura de transformadores Mix of Experts (MoE).Ele também oferece uma janela de contexto substancial de até 131.072 tokens, tornando-o compatível com plataformas de VRAM de 16 GB, permitindo que funcione com eficiência na maioria das GPUs de nível doméstico. Por outro lado, o gpt-oss-120b, com robustos 117 bilhões de parâmetros, se destaca em tarefas de raciocínio, mas necessita de uma plataforma NVIDIA H100 mais potente para um desempenho ideal.

OpenAI arrecada US$ 8, 3 bilhões em fundos
Créditos da imagem: OpenAI

Significativamente, esses modelos são distribuídos sob a licença Apache 2.0, que concede permissões para uso comercial, modificação e redistribuição. Essa natureza de código aberto os posiciona de forma semelhante aos seus equivalentes chineses.À medida que a OpenAI entra nesse espaço, parece estar respondendo estrategicamente aos avanços feitos pelas empresas chinesas de IA, que desenvolvem ecossistemas de código aberto há vários anos. Com exceção do LLaMA da Meta, os EUA têm visto pouca movimentação nos modelos de código aberto tradicionais até agora.

Com a incursão da OpenAI em modelos de peso aberto, há expectativas para lançamentos futuros. A comparação do gpt-oss com alternativas chinesas revela que, embora a OpenAI tenha feito um progresso louvável, os modelos chineses geralmente apresentam uma contagem de parâmetros maior. Por exemplo, modelos proeminentes como DeepSeek V2 e Qwen 3 apresentam números de parâmetros significativamente maiores:

Categoria GPT‑OSS 120B / 20B DeepSeek-V2 / R1 Qwen3 / Qwen2.5 / QwQ
Organização OpenAI DeepSeek (China) Alibaba (China)
Tipo de modelo MoE esparso (mistura de especialistas) MoE esparso Híbridos densos e MoE
Parâmetros totais 120B / 20B 236B / 67B 235B / 72B / 32B / outros
Parâmetros ativos ~5, 1B / ~3, 6B ~21B / ~6, 7B ~22B (Qwen3-235B) / ~3B (Qwen3-30B-A3B)
Janela de contexto 128 mil tokens 128 mil tokens 128K (Qwen3), 32K (Qwen2.5)

Embora as contagens totais e ativas de parâmetros sejam importantes, elas não são os únicos fatores que determinam a superioridade de um modelo. No entanto, os modelos chineses têm uma vantagem considerável, principalmente devido aos seus anos de experiência. Para avaliar seu desempenho em tempo real, foram comparados diversos benchmarks, incluindo o MMLU (Massive Multitask Language Understanding) e o AIME Math. Essas avaliações foram conduzidas pela Clarifai e revelam insights notáveis:

Tarefa de benchmark GPT-OSS-120B GLM‑4.5 Pensamento Qwen-3 DeepSeek R1 Como K2
MMLU‑Pro (Raciocínio) ~90, 0% 84, 6% 84, 4% 85, 0% 81, 1%
Matemática AIME (com ferramentas) ~96, 6–97, 9% ~91% ~92, 3% ~87, 5% ~49–69%
GPQA (Ciências de Doutorado) ~80, 9% 79, 1% 81, 1% 81, 0% 75, 1%
SWE‑bench (Codificação) 62, 4% 64, 2% ~65, 8% ~65, 8%
TAU‑bench (Agentes) ~67, 8% 79, 7% ~67, 8% ~63, 9% ~70, 6%
BFCL‑v3 (Chamada de Função) ~67–68% 77, 8% 71, 9% 37%

Os resultados mostram claramente que o gpt-oss se destaca em tarefas de raciocínio e matemática, marcando-o como um concorrente formidável dentro de seu grupo de pares. Além disso, possui uma pegada de parâmetros ativos menor em comparação com muitos modelos densos, tornando-o uma opção mais econômica para usuários que buscam soluções de IA local. No entanto, os benchmarks indicam que, para tarefas de agente e recursos multilíngues, o modelo gpt-oss-120b ainda está atrás de algumas alternativas chinesas, mas continua sendo um forte concorrente no mercado.

O surgimento de modelos de peso aberto é vital para a indústria de IA, pois promove um ecossistema mais inclusivo. Com esta iniciativa, a OpenAI tem o potencial de fortalecer a presença dos EUA em um cenário anteriormente dominado por organizações chinesas. Este marco provavelmente trará satisfação a Sam Altman e à equipe da OpenAI enquanto navegam neste cenário competitivo.

Fonte e Imagens

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *