
Nel fine settimana, Meta ha presentato due innovative iterazioni del suo Llama 4 AI, introducendo una versione compatta chiamata Scout e un’alternativa di medie dimensioni chiamata Maverick. L’azienda si vanta che Maverick supera ChatGPT-4o e Gemini 2.0 Flash in numerose valutazioni ampiamente utilizzate. Tuttavia, sembra che ci sia molto di più sotto la superficie riguardo a queste affermazioni.
Meta sotto esame: affermazioni fuorvianti sulle prestazioni dei modelli di intelligenza artificiale scatenano polemiche
Dopo il suo lancio, Maverick si è rapidamente guadagnato il secondo posto su LMArena, una piattaforma in cui gli utenti valutano e votano le risposte dell’IA in base alla loro pertinenza e accuratezza. Tuttavia, la situazione non è così semplice come sembra. La rapida ascesa di Maverick apre una discussione sull’integrità dei suoi parametri di performance.
Meta ha annunciato con orgoglio l’impressionante punteggio ELO di Maverick, pari a 1417, posizionandolo subito dietro Gemini 2.5 Pro e davanti a GPT-40. Sebbene questo dimostri che Meta ha progettato un modello di intelligenza artificiale competitivo, ciò che è successo dopo ha suscitato perplessità nella comunità tecnologica. Gli osservatori hanno subito evidenziato discrepanze nelle prestazioni dichiarate del modello, portando Meta ad ammettere che la versione sottoposta a valutazione da parte di LMArena differiva dalla versione consumer.
Nello specifico, Meta ha fornito una variante sperimentale della chat, ottimizzata per migliorare le capacità conversazionali, come riportato da TechCrunch. In risposta, LMArena ha sottolineato che “l’interpretazione di Meta della nostra policy non corrispondeva a quanto ci aspettiamo dai fornitori di modelli”, sollecitando maggiore chiarezza da parte di Meta in merito all’utilizzo della versione “Llama-4-Maverick-03-26-Experimental”, adattata alle preferenze umane.
Alla luce di questo incidente, LMArena ha rivisto le sue politiche di classifica per migliorare l’equità e l’affidabilità delle classifiche future. Successivamente, un portavoce di Meta ha rilasciato il seguente commento in merito alla situazione:
“Abbiamo ora rilasciato la nostra versione open source e vedremo come gli sviluppatori personalizzeranno Llama 4 per i loro casi d’uso.”
Sebbene Meta tecnicamente rispettasse le regole, la mancanza di trasparenza ha sollevato allarmi sulla potenziale manipolazione delle classifiche attraverso l’uso di una variante ottimizzata e non pubblica del loro modello. Il ricercatore indipendente di intelligenza artificiale Simon Willison ha osservato:
“Quando è uscito Llama 4 e ha raggiunto il secondo posto, sono rimasto davvero impressionato e mi sto prendendo a calci per non aver letto le clausole in piccolo.”
“È una release molto confusa in generale…Il punteggio del modello che abbiamo ottenuto è completamente inutile per me. Non posso nemmeno usare il modello che ha ottenuto un punteggio alto.”
D’altra parte, ci sono state speculazioni secondo cui i modelli di intelligenza artificiale di Meta sarebbero stati addestrati per eccellere in specifici scenari di test. Tuttavia, il vicepresidente dell’azienda per l’intelligenza artificiale generativa, Ahman Al-Dahle, ha smentito queste affermazioni, affermando:
“Abbiamo anche sentito affermazioni secondo cui ci siamo formati su set di test, ma questo è semplicemente falso.”
Nel mezzo di queste discussioni, gli utenti si sono chiesti perché il modello di intelligenza artificiale Maverick fosse stato rilasciato di domenica. Mark Zuckerberg ha risposto semplicemente: “Era pronto quando era”.Meta ha impiegato molto tempo per lanciare finalmente Llama 4, soprattutto considerando la forte concorrenza nel settore dell’intelligenza artificiale. Con l’evolversi degli sviluppi, rimanete sintonizzati per ulteriori aggiornamenti.
Lascia un commento