Samsungs kompaktes KI-Modell übertrifft große Sprachmodelle wie Gemini 2.5 Pro beim Lösen von ARC-AGI-Rätseln

Samsungs kompaktes KI-Modell übertrifft große Sprachmodelle wie Gemini 2.5 Pro beim Lösen von ARC-AGI-Rätseln

Während Samsungs Kameratechnologie derzeit möglicherweise keine bedeutenden Durchbrüche erzielt, sind die Fortschritte im Bereich der künstlichen Intelligenz (KI) bemerkenswert. Die jüngste KI-Initiative des Unternehmens umfasst ein Modell, das andere große Sprachmodelle (LLMs), von denen einige etwa 10.000-mal so groß sind, eindrucksvoll übertrifft.

Einführung des innovativen kleinen rekursiven Modells von Samsung

TRM: Ein kleines Netzwerkdiagramm mit detaillierten 7M-Parametern und Funktionen wie Selbstkorrektur und minimalen Parametern.
Bildquelle
  1. Dieses Modell, bekannt als Tiny Recursive Model (TRM), ist bemerkenswert kompakt und umfasst nur 7 Millionen Parameter im Vergleich zu den Milliarden, die in größeren LLMs zu finden sind.
  2. TRM nutzt seine Ergebnisse zur Steuerung der nachfolgenden Schritte und schafft so effektiv einen sich selbst verbessernden Feedback-Mechanismus.
  3. Durch die Verwendung iterativer Schlussfolgerungen für jede Ausgabe kann eine tiefere neuronale Architektur emuliert werden, ohne dass der typische Speicher- oder Rechenaufwand entsteht.
  4. Durch jeden rekursiven Zyklus verbessert das Modell die Genauigkeit seiner Vorhersagen oder Ergebnisse.

Samsungs Strategie ähnelt dem sorgfältigen Prozess der Überarbeitung eines schriftlichen Entwurfs; das Modell identifiziert und korrigiert iterativ Fehler – eine deutliche Verbesserung gegenüber herkömmlichen LLMs, die bei logischen Herausforderungen oft schon bei einem einzigen Fehltritt versagen. Obwohl die logische Argumentation diese Modelle unterstützt, bleibt ihre Wirksamkeit unter Druck fragil.

Wichtigste Erkenntnis: Setzen Sie auf Einfachheit

Samsung versuchte zunächst, die Komplexität des Modells durch die Erhöhung der Anzahl der Schichten zu steigern. Dieser Ansatz führte jedoch zu Überanpassung und erschwerte die Generalisierung. Interessanterweise führte die Reduzierung der Schichten in Kombination mit einer Erhöhung der rekursiven Iterationen zu einer Leistungssteigerung des TRM.

Leistungsergebnisse

  1. Bei Sudoku-Extreme wurde eine Genauigkeitsrate von 87, 4 % erreicht, im Vergleich zu nur 55 % bei herkömmlichen hierarchischen Argumentationsmodellen.
  2. Bei schwierigen Labyrinth-Rätseln eine Genauigkeit von 85 % erreicht.
  3. Bei ARC-AGI-1-Herausforderungen eine Genauigkeit von 45 % erreicht.
  4. Bei ARC-AGI-2-Aufgaben wurde eine Genauigkeit von 8 % erreicht.

Bemerkenswerterweise konkurriert Samsungs TRM nicht nur mit größeren LLMs wie DeepSeek R1, Googles Gemini 2.5 Pro und OpenAIs o3-mini, sondern übertrifft diese in vielen Fällen sogar in ihrer Leistung, und das, obwohl es nur einen Bruchteil ihrer Parameteranzahl nutzt.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert