Kompaktowy model sztucznej inteligencji Samsunga przewyższa duże modele językowe, takie jak Gemini 2.5 Pro, w rozwiązywaniu łamigłówek ARC-AGI

Kompaktowy model sztucznej inteligencji Samsunga przewyższa duże modele językowe, takie jak Gemini 2.5 Pro, w rozwiązywaniu łamigłówek ARC-AGI

Choć technologia aparatów Samsunga może obecnie nie osiągać znaczących przełomów, jej postępy w dziedzinie sztucznej inteligencji (AI) są godne uwagi. Najnowsza inicjatywa firmy w zakresie AI opiera się na modelu, który imponująco przewyższył inne modele dużych języków (LLM), z których niektóre są około 10 000 razy większe.

Przedstawiamy innowacyjny, miniaturowy model rekurencyjny firmy Samsung

TRM: Jeden mały diagram sieciowy szczegółowo przedstawiający 7 milionów parametrów i funkcje, takie jak autokorekta i minimalne parametry.
Źródło obrazu
  1. Model ten, znany jako Tiny Recursive Model (TRM), jest niezwykle zwarty i obejmuje zaledwie 7 milionów parametrów, podczas gdy w większych modelach LLM znajdują się ich miliardy.
  2. TRM wykorzystuje swoje dane wyjściowe do kierowania kolejnymi krokami, skutecznie tworząc samodoskonalący się mechanizm sprzężenia zwrotnego.
  3. Wykorzystując iteracyjne rozumowanie na każdym wyjściu, można emulować głębszą architekturę neuronową bez ponoszenia typowego obciążenia pamięciowego lub obliczeniowego.
  4. W każdym cyklu rekurencyjnym model zwiększa dokładność swoich przewidywań i wyników.

Strategia Samsunga przypomina skrupulatny proces rewizji pisemnego projektu; model iteracyjnie identyfikuje i koryguje błędy – to znacząca poprawa w porównaniu z tradycyjnymi modelami LLM, które często zawodzą w obliczu problemów logicznych, jeśli pojawi się choćby jeden błąd. Chociaż model ten wspomaga rozumowanie oparte na łańcuchu myślowym, jego skuteczność pozostaje krucha pod presją.

Najważniejsze wnioski: Postaw na prostotę

Początkowo Samsung próbował zwiększyć złożoność modelu poprzez zwiększenie liczby warstw; jednak takie podejście prowadziło do nadmiernego dopasowania i utrudniało generalizację. Co ciekawe, przejście w kierunku mniejszej liczby warstw w połączeniu ze wzrostem liczby iteracji rekurencyjnych zaowocowało poprawą wydajności TRM.

Wyniki wydajności

  1. Osiągnięto wskaźnik dokładności na poziomie 87, 4% w Sudoku-Extreme, w porównaniu do zaledwie 55% w przypadku konwencjonalnych modeli rozumowania hierarchicznego.
  2. Osiągnięto 85% celności w łamigłówkach o poziomie trudności Maze-Hard.
  3. Osiągnięto 45% dokładności w wyzwaniach ARC-AGI-1.
  4. Uzyskano 8% dokładność w zadaniach ARC-AGI-2.

Co godne uwagi, TRM firmy Samsung nie tylko dorównuje wydajnością większym systemom LLM, takim jak DeepSeek R1, Google Gemini 2.5 Pro i OpenAI o3-mini, ale w wielu przypadkach je przewyższa, wykorzystując przy tym zaledwie ułamek ich parametrów.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *