
No fim de semana, a Meta revelou duas iterações inovadoras de seu Llama 4 AI, apresentando uma versão compacta chamada Scout e uma alternativa de médio porte chamada Maverick. A empresa se gaba de que o Maverick supera o ChatGPT-4o e o Gemini 2.0 Flash em diversas avaliações amplamente utilizadas. No entanto, parece haver mais por trás dessas afirmações.
Meta sob escrutínio: alegações enganosas sobre o desempenho do modelo de IA geram controvérsia
Após seu lançamento, o Maverick rapidamente conquistou o segundo lugar no LMArena, uma plataforma onde os usuários avaliam e votam nas respostas da IA com base em sua relevância e precisão. No entanto, a situação não é tão simples quanto parece. A rápida ascensão do Maverick suscita uma discussão sobre a integridade de suas métricas de desempenho.
A Meta orgulhosamente anunciou a impressionante pontuação ELO de 1417 do Maverick, posicionando-o logo atrás do Gemini 2.5 Pro e à frente do GPT-40. Embora isso destaque que a Meta projetou um modelo de IA competitivo, o que veio a seguir causou surpresa na comunidade tecnológica. Observadores rapidamente apontaram discrepâncias nas declarações de desempenho do modelo, levando a Meta a admitir: a versão submetida para avaliação na LMArena era diferente da versão para o consumidor.
Especificamente, a Meta forneceu uma variante experimental de bate-papo que havia sido ajustada para aprimorar as capacidades de conversação, conforme relatado pelo TechCrunch. Em resposta, a LMArena enfatizou que “a interpretação da Meta sobre nossa política não correspondia ao que esperávamos dos provedores de modelos”, solicitando maior clareza da Meta quanto ao uso da versão “Llama-4-Maverick-03-26-Experimental”, que foi adaptada às preferências humanas.
Em vista deste incidente, a LMArena revisou suas políticas de classificação para aprimorar a imparcialidade e a confiabilidade de classificações futuras. Posteriormente, um porta-voz da Meta comentou o seguinte sobre a situação:
“Agora lançamos nossa versão de código aberto e veremos como os desenvolvedores personalizam o Llama 4 para seus próprios casos de uso.”
Embora a Meta tenha tecnicamente cumprido as regras, a falta de transparência levantou alarmes sobre a potencial manipulação das classificações do ranking por meio do uso de uma variante otimizada e não pública de seu modelo. O pesquisador independente de IA Simon Willison comentou:
“Quando Llama 4 foi lançado e chegou ao segundo lugar, fiquei realmente impressionado — e estou me culpando por não ter lido as letras miúdas.”
“É um lançamento muito confuso no geral…A pontuação do modelo que obtivemos lá é completamente inútil para mim. Não consigo nem usar o modelo que obteve uma pontuação alta.”
Por outro lado, houve especulações sugerindo que os modelos de IA da Meta foram treinados para se destacar em cenários de teste específicos. No entanto, o vice-presidente de IA Generativa da empresa, Ahman Al-Dahle, refutou essas alegações, afirmando:
“Também ouvimos alegações de que treinamos em conjuntos de teste — isso simplesmente não é verdade.”
Em meio a essas discussões, usuários questionaram por que o modelo de IA do Maverick foi lançado num domingo. Mark Zuckerberg respondeu simplesmente: “Foi quando ele ficou pronto”.O Meta levou um tempo considerável para finalmente lançar o Llama 4, especialmente devido à forte concorrência no setor de IA.À medida que os desenvolvimentos continuam, fique atento para novas atualizações.
Deixe um comentário