Outbyte PC Repair

Googleは、クロードの出力でジェミニをトレーニングするための許可を得ることについて沈黙を守っている。

Googleは、クロードの出力でジェミニをトレーニングするための許可を得ることについて沈黙を守っている。

GoogleのGemini AIトレーニングに眉をひそめる

TechCrunch の最近のレポートでは、Google が Gemini AI のトレーニングに採用している興味深い方法論がいくつか明らかにされています。この開発プロセスの一環として、Google は、精度、明瞭性、安全性など、さまざまな基準で AI の出力を評価することを任務とする請負業者を採用しました。この状況が注目に値するのは、これらの請負業者が Gemini によって生成された応答を比較するためのベンチマークとして、Anthropic の大規模言語モデル (LLM) である Claude を使用しているという事実です。

比較中に発見された異常な発見

最近の観察で、Google の社内分析プラットフォーム内で作業している請負業者が予期せぬ問題を発見しました。クロードに起因する出力の 1 つが、Gemini の応答として提示されたのです。さらに精査すると、いくつかの応答が、特に安全性の面でクロードの特性を示していることがわかりました。たとえば、注目すべき例の 1 つは、クロードが別の AI アシスタントとしてロールプレイング シナリオに参加することを拒否したことで、モデルの慎重なアプローチが注目されました。

Anthropicの利用規約の影響

この状況をさらに複雑にしているのは、Anthropic が定めた明示的な利用規約です。これらの規約では、Claude の成果物を競合製品の開発に使用することを明確に禁止しています。

使用制限。お客様は、(a) Anthropic が明示的に承認した場合を除き、競合する AI モデルのトレーニングを含む競合製品またはサービスを構築するために本サービスにアクセスする、(b) 本サービスをリバース エンジニアリングまたは複製する、(c) 本文で制限されている行為のいずれかに対する第三者の試みをサポートする、などの行為を試みることはできず、また試みてはなりません。お客様とそのユーザーは、Anthropic が現在サポートしている国と地域でのみ本サービスを利用できます。

Googleの曖昧な回答

TechCrunch が、Claude の成果を利用するために Anthropic から必要な許可を得たかどうかについて Google に質問したところ、Google の回答は明確ではありませんでした。DeepMind の広報担当者である Shira McNamara 氏は次のようにコメントしました。

もちろん、業界の標準的な慣行に従い、評価プロセスの一環としてモデル出力を比較する場合もあります。

AI 環境をナビゲートする

AI 開発では、企業が自社のモデルを競合他社のモデルと比較し、パフォーマンスを測定して改善策を講じるという、モデル間の比較が一般的な慣行となっていますが、明示的な同意なしに別のモデルの出力を直接利用または模倣する行為は、重大な倫理的問題を提起します。この状況は、AI 業界の競争が激化するにつれて明らかになります。Google は最近、Gemini の実験バージョンを導入しましたが、これはいくつかの評価カテゴリで OpenAI の GPT-4o を上回っていると報告されています。一方、Anthropic は Claude の進化を続けており、最近では多彩な会話スタイルを可能にする機能強化や、インターフェイス内で直接 JavaScript コードを記述して実行するための統合ツールを導入しています。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です