Microsoft: O raciocínio Phi-4 compete com modelos maiores e atinge o desempenho do DeepSeek-R1

Microsoft: O raciocínio Phi-4 compete com modelos maiores e atinge o desempenho do DeepSeek-R1

Microsoft revela Phi-4-Reasoning: um avanço em modelos de linguagem

Em um desenvolvimento empolgante para a inteligência artificial, a Microsoft introduziu o Phi-4-reasoning, um modelo de 14 bilhões de parâmetros projetado para lidar com tarefas complexas de raciocínio com eficácia impressionante. Este modelo inovador foi criado usando ajuste fino supervisionado em um conjunto específico de prompts “ensináveis”, gerados com a ajuda do o3-mini, garantindo que os dados de treinamento sejam de alta qualidade e relevantes.

Além disso, a empresa também lançou o Phi-4-reasoning-plus, uma variante que não apenas mantém o design do parâmetro 14B, mas também aprimora as capacidades de raciocínio ao produzir traços de raciocínio mais longos, oferecendo, assim, melhores benchmarks de desempenho.

Métricas de desempenho: uma vantagem competitiva

De acordo com as descobertas detalhadas no recente whitepaper da Microsoft, os modelos de raciocínio Phi-4 demonstram desempenho superior em comparação com vários modelos maiores, incluindo o conhecido DeepSeek-R1-Distill-Llama-70B. Notavelmente, esses modelos até mesmo igualam todas as capacidades do modelo DeepSeek-R1 em benchmarks específicos. Além disso, eles superaram o Claude 3.7 Sonnet da Anthropic e o Gemini 2 Flash Thinking do Google em quase todas as tarefas, com exceções observadas para GPQA e Planejamento de Calendário.

Microsoft Phi-4-Raciocínio
Modelo de raciocínio Phi-4 da Microsoft

Insights sobre o desenvolvimento e as limitações do modelo

O desempenho promissor do modelo de raciocínio Phi-4 reforça a ideia de que a curadoria meticulosa de dados para ajuste fino supervisionado (SFT) pode aprimorar significativamente as capacidades dos modelos de linguagem de raciocínio. Além disso, há potencial para melhorias de desempenho por meio da implementação de técnicas de aprendizagem por reforço.

No entanto, o modelo de raciocínio Phi-4 apresenta certas restrições. Basicamente, ele é adaptado para textos em inglês e foi treinado predominantemente em Python, utilizando bibliotecas de codificação padrão. Além disso, opera com um comprimento de contexto limitado de 32.000 tokens. Para uma compreensão mais aprofundada de suas capacidades e restrições, os leitores podem consultar o whitepaper.

Apresentando o Phi-4-raciocínio, adicionando modelos de raciocínio à família Phi de SLMs. O modelo é treinado com ajuste fino supervisionado (usando um conjunto de dados cuidadosamente selecionado de demonstrações de raciocínio) e Aprendizado por Reforço.📌Resultados competitivos em benchmarks de raciocínio com… pic.twitter.com/p2FkjD4qfu

Implicações para o desenvolvimento da IA

A Microsoft considera os modelos de raciocínio Phi-4 como ferramentas essenciais para o avanço da pesquisa em modelos de linguagem. Espera-se que suas aplicações sejam particularmente benéficas em ambientes onde a memória ou os recursos computacionais são limitados, cenários com altos requisitos de latência e tarefas que exigem raciocínio intensivo.

Para mais informações e insights, visite a fonte original: Source & Images.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *