O modelo compacto de IA da Samsung supera grandes modelos de linguagem como o Gemini 2.5 Pro na resolução de quebra-cabeças ARC-AGI

O modelo compacto de IA da Samsung supera grandes modelos de linguagem como o Gemini 2.5 Pro na resolução de quebra-cabeças ARC-AGI

Embora a tecnologia de câmeras da Samsung possa atualmente carecer de avanços significativos, seus avanços em inteligência artificial (IA) são dignos de nota. A mais recente iniciativa de IA da empresa apresenta um modelo que superou de forma impressionante outros modelos de grande linguagem (LLMs), alguns dos quais são aproximadamente 10.000 vezes maiores.

Apresentando o inovador modelo recursivo minúsculo da Samsung

TRM: Um pequeno diagrama de rede detalhando 7 milhões de parâmetros e recursos como autocorreção e parâmetros mínimos.
Fonte da imagem
  1. Este modelo, conhecido como Tiny Recursive Model (TRM), é notavelmente compacto, compreendendo apenas 7 milhões de parâmetros, em comparação com os bilhões encontrados em LLMs maiores.
  2. O TRM utiliza sua saída para orientar suas etapas subsequentes, criando efetivamente um mecanismo de feedback de autoaperfeiçoamento.
  3. Ao utilizar o raciocínio iterativo em cada saída, ele pode emular uma arquitetura neural mais profunda sem incorrer na sobrecarga típica de memória ou computação.
  4. Por meio de cada ciclo recursivo, o modelo aumenta a precisão de suas previsões ou resultados.

A estratégia da Samsung assemelha-se ao processo meticuloso de revisão de um rascunho escrito; o modelo identifica e corrige erros iterativamente – uma melhoria notável em relação aos LLMs tradicionais, que frequentemente vacilam diante de desafios lógicos caso ocorra um único erro. Embora o raciocínio por cadeia de pensamento auxilie esses modelos, sua eficácia permanece frágil sob pressão.

Conclusão principal: abrace a simplicidade

Inicialmente, a Samsung tentou aumentar a complexidade do modelo aumentando suas camadas; no entanto, essa abordagem levou a um sobreajuste e dificultou a generalização. Curiosamente, a mudança para um número menor de camadas, combinada com um aumento nas iterações recursivas, resultou em um desempenho aprimorado para o TRM.

Resultados de desempenho

  1. Obteve uma taxa de precisão de 87, 4% no Sudoku-Extreme, em comparação com apenas 55% nos Modelos de Raciocínio Hierárquico convencionais.
  2. Obteve 85% de precisão em quebra-cabeças Maze-Hard.
  3. Atingiu 45% de precisão nos desafios ARC-AGI-1.
  4. Obteve uma precisão de 8% nas tarefas ARC-AGI-2.

Notavelmente, o TRM da Samsung não apenas compete, mas em muitos casos excede o desempenho de LLMs maiores, como o DeepSeek R1, o Gemini 2.5 Pro do Google e o o3-mini da OpenAI, tudo isso utilizando uma fração de sua contagem de parâmetros.

Fonte e Imagens

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *