Outbyte PC Repair

谷歌對於獲得關於克勞德輸出訓練 Gemini 的許可保持沉默

谷歌對於獲得關於克勞德輸出訓練 Gemini 的許可保持沉默

谷歌的 Gemini 人工智慧培訓令人驚訝

TechCrunch最近的一份報告揭示了Google在訓練 Gemini AI 時採用的一些有趣的方法。作為這個開發過程的一部分,Google已經招募了承包商,負責根據各種標準評估人工智慧的輸出,包括準確性、清晰度和安全性。這種情況值得注意的是,這些承包商正在使用 Anthropic 的大型語言模型 (LLM) Claude 作為比較 Gemini 產生的回應的基準。

比較過程中的異常發現

在最近的觀察中,在Google內部分析平台工作的承包商發現了一個意想不到的問題:克勞德的產出之一被呈現為雙子座的回應。進一步的審查顯示,一些反應表現出了克勞德的特徵,特別是在安全方面。例如,一個值得注意的例子是克勞德拒絕作為另一位人工智慧助手參與角色扮演場景,引起人們對該模型謹慎態度的關注。

Anthropic 服務條款的涵義

Anthropic 制定的明確服務條款使這種情況變得更加複雜。這些條款明確禁止使用克勞德的成果來開發競爭產品:

使用限制。客戶不得且不得嘗試 (a) 存取服務來建立競爭性產品或服務,包括訓練競爭性 AI 模型,除非經 Anthropic 明確批准; (b) 逆向工程或複製服務; (c) 支持任何第三方嘗試實施本句中限制的任何行為。客戶及其用戶只能在 Anthropic 目前支援的國家和地區使用服務

谷歌的不置可否回應

當 TechCrunch 詢問他們是否從 Anthropic 獲得了使用 Claude 輸出的必要許可時,谷歌的回應並不明確。 DeepMind 發言人 Shira McNamara 評論道:

當然,根據標準行業慣例,在某些情況下,我們會比較模型輸出作為評估過程的一部分。

探索人工智慧領域

雖然跨模型比較是人工智慧開發中的普遍做法,公司將自己的模型與競爭對手進行基準比較,以衡量性能並設計改進方案,但未經明確同意直接利用或模仿另一個模型的輸出的行為會帶來重大的道德問題。隨著人工智慧產業競爭日益激烈,這種情況不斷出現。谷歌最近推出了 Gemini 的實驗版本,據報導該版本在多個評估類別中超越了 OpenAI 的 GPT-4o。同時,Anthropic 繼續推動 Claude 的發展,最近的增強功能支援多種對話風格以及直接在其介面中編寫和執行 JavaScript 程式碼的整合工具。

來源&圖片

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *