Le modèle d’IA compact de Samsung surpasse les grands modèles de langage comme Gemini 2.5 Pro pour résoudre les énigmes ARC-AGI

Le modèle d’IA compact de Samsung surpasse les grands modèles de langage comme Gemini 2.5 Pro pour résoudre les énigmes ARC-AGI

Si la technologie des appareils photo de Samsung manque actuellement d’avancées majeures, ses avancées en matière d’intelligence artificielle (IA) sont remarquables. La dernière initiative de l’entreprise en matière d’IA présente un modèle qui a surpassé de manière impressionnante d’autres modèles de langage à grande échelle (LLM), dont certains sont environ 10 000 fois plus grands.

Présentation du modèle récursif minuscule et innovant de Samsung

TRM : un petit diagramme de réseau détaillant 7 millions de paramètres et de fonctionnalités telles que l'autocorrection et les paramètres minimaux.
Source de l’image
  1. Ce modèle, connu sous le nom de Tiny Recursive Model (TRM), est remarquablement compact, ne comprenant que 7 millions de paramètres par rapport aux milliards trouvés dans les LLM plus grands.
  2. TRM utilise ses résultats pour guider ses étapes ultérieures, créant ainsi efficacement un mécanisme de rétroaction auto-améliorant.
  3. En utilisant un raisonnement itératif sur chaque sortie, il peut émuler une architecture neuronale plus profonde sans encourir la surcharge de mémoire ou de calcul typique.
  4. À chaque cycle récursif, le modèle améliore la précision de ses prédictions ou de ses résultats.

La stratégie de Samsung s’apparente au processus méticuleux de révision d’un brouillon ; le modèle identifie et corrige les erreurs de manière itérative, ce qui constitue une amélioration notable par rapport aux LLM traditionnels, souvent confrontés à des difficultés de logique dès la moindre erreur. Bien que le raisonnement par chaîne de pensée facilite ces modèles, son efficacité reste fragile sous pression.

À retenir : Adoptez la simplicité

Initialement, Samsung a tenté d’améliorer la complexité du modèle en augmentant le nombre de couches ; cependant, cette approche a entraîné un surapprentissage et a entravé la généralisation. Il est intéressant de noter que la réduction du nombre de couches, combinée à une augmentation des itérations récursives, a permis d’améliorer les performances du TRM.

Résultats de performance

  1. A obtenu un taux de précision de 87, 4 % sur Sudoku-Extreme, contre seulement 55 % pour les modèles de raisonnement hiérarchique conventionnels.
  2. A obtenu une précision de 85 % sur les énigmes Maze-Hard.
  3. Atteint une précision de 45 % sur les défis ARC-AGI-1.
  4. J’ai obtenu une précision de 8 % sur les tâches ARC-AGI-2.

Il est remarquable de constater que le TRM de Samsung non seulement rivalise avec, mais dépasse dans de nombreux cas les performances des LLM plus grands tels que DeepSeek R1, Gemini 2.5 Pro de Google et o3-mini d’OpenAI, tout en utilisant une fraction de leur nombre de paramètres.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *