サムスンのコンパクトAIモデルは、ARC-AGIパズルの解決において、Gemini 2.5 Proなどの大規模言語モデルを上回る

サムスンのコンパクトAIモデルは、ARC-AGIパズルの解決において、Gemini 2.5 Proなどの大規模言語モデルを上回る

サムスンのカメラ技術は現時点では大きな進歩を欠いているかもしれないが、人工知能(AI)における進歩は注目に値する。同社の最新のAIイニシアチブは、他の大規模言語モデル(LLM)をはるかに凌駕する性能を誇るモデルを特徴としており、その規模は約1万倍にも及ぶものもある。

サムスンの革新的なTiny Recursive Modelのご紹介

TRM: 7M のパラメータと、自己修正や最小パラメータなどの機能を詳述した 1 つの小さなネットワーク ダイアグラム。
画像ソース
  1. このモデルは、Tiny Recursive Model (TRM) として知られており、大規模な LLM の数十億のパラメータと比較すると、わずか 700 万のパラメータで構成されており、非常にコンパクトです。
  2. TRM は、その出力を後続のステップのガイドとして使用し、効果的に自己改善フィードバック メカニズムを作成します。
  3. 各出力に対して反復的な推論を利用することで、一般的なメモリや計算のオーバーヘッドを発生させることなく、より深いニューラル アーキテクチャをエミュレートできます。
  4. 各再帰サイクルを通じて、モデルは予測または結果の精度を向上させます。

サムスンの戦略は、草稿を綿密に修正するプロセスに似ています。このモデルは、誤りを反復的に特定し、修正します。これは、たった一度の誤りで論理的課題に直面したときにしばしば行き詰まってしまう従来の法学修士課程(LLM)と比べて、顕著な改善点です。思考連鎖推論はこれらのモデルを補助するものの、その有効性はプレッシャーの下では依然として脆弱です。

重要なポイント: シンプルさを受け入れる

当初、Samsungは層を増やすことでモデルの複雑さを高めようとしましたが、このアプローチは過学習を招き、汎化を阻害しました。興味深いことに、層数を減らし、再帰反復回数を増やすことで、TRMのパフォーマンスが向上しました。

パフォーマンス結果

  1. Sudoku-Extreme では 87.4% の精度を達成しましたが、従来の階層的推論モデルではわずか 55% でした。
  2. Maze-Hardパズルで85%の精度を達成しました。
  3. ARC-AGI-1 チャレンジで 45% の精度を達成しました。
  4. ARC-AGI-2 タスクで 8% の精度を達成しました。

驚くべきことに、Samsung の TRM は、DeepSeek R1、Google の Gemini 2.5 Pro、OpenAI の o3-mini などの大規模な LLM と競合するだけでなく、多くの場合、それらのパフォーマンスを上回り、そのパラメータ数のほんの一部しか使用していません。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です