
先週末、MetaはLlama 4 AIの革新的な2つのバージョンを発表しました。コンパクト版のScoutと、中規模版のMaverickです。同社は、Maverickが複数の広く使用されている評価においてChatGPT-4oとGemini 2.0 Flashを凌駕していると自負しています。しかし、これらの主張には裏があるようです。
Metaの精査:AIモデルの性能に関する誤解を招く主張が論争を巻き起こす
Maverickはローンチ後、ユーザーがAIの回答を関連性と精度に基づいて評価・投票できるプラットフォーム「LMArena」で瞬く間に2位を獲得しました。しかし、状況は見た目ほど単純ではありません。Maverickの急速な上昇は、そのパフォーマンス指標の信頼性に関する議論を巻き起こしています。
Metaは、MaverickのELOスコアが1417という驚異的なスコアを記録したことを誇らしげに発表しました。これはGemini 2.5 Proにわずかに及ばず、GPT-40を上回ったという結果です。これはMetaが競争力のあるAIモデルを開発したことを物語っていますが、その後の展開はテクノロジーコミュニティの注目を集めました。観測筋はすぐにモデルの性能に関する主張に矛盾があると指摘し、MetaはLMArenaに評価のために提出されたバージョンがコンシューマー向けバージョンと異なっていたことを認めました。
TechCrunchの報道によると、Metaは会話機能を向上させるために微調整された実験的なチャットバリアントを提供しました。これに対し、LMArenaは「Metaによる当社のポリシー解釈は、モデルプロバイダーに期待するものと一致していなかった」と強調し、人間の好みに合わせて調整された「Llama-4-Maverick-03-26-Experimental」バージョンの使用に関してMetaに明確な説明を求めました。
この事件を受け、LMArenaは今後のランキングの公平性と信頼性を高めるため、リーダーボードのポリシーを改訂しました。その後、Metaの広報担当者は、この状況について以下のコメントを発表しました。
「私たちはオープンソース版をリリースしました。開発者が独自のユースケースに合わせてLlama 4をどのようにカスタマイズするかを見ていきます。」
Metaは技術的にはルールを遵守していましたが、透明性の欠如から、最適化された非公開のモデルを用いてリーダーボードのランキングが操作される可能性があるという懸念が高まりました。独立系AI研究者のサイモン・ウィリソン氏は次のように述べています。
「『ラマ4』が発売されて2位になったとき、本当に感動しました。細かい文字を読んでいなかったことを後悔しています。」
「全体的に非常に分かりにくいリリースですね…そこで得たモデルスコアは私にとって全く価値がありません。高スコアを獲得したモデルさえ使えないんです。」
また、MetaのAIモデルは特定のテストシナリオで優れたパフォーマンスを発揮するように訓練されているという憶測が飛び交っています。しかし、同社のジェネレーティブAI担当副社長であるAhman Al-Dahle氏は、これらの主張を否定し、次のように述べています。
「テストセットでトレーニングしたという主張も聞きましたが、それは全く真実ではありません。」
こうした議論の中で、ユーザーからはMaverick AIモデルがなぜ日曜日にリリースされたのかという疑問が投げかけられました。マーク・ザッカーバーグは「準備が整った日だった」と簡潔に答えました。Metaは、AI分野における熾烈な競争を踏まえ、Llama 4のリリースまでにかなりの時間を要しました。今後の展開にご期待ください。
コメントを残す