過去一周,Google的對話式人工智慧 Gemini 由於在生成人物圖像的能力上存在偏見而受到密切關注。用戶報告說,當他們要求 Gemini 描繪歷史背景或虛構場景中的人物時,人工智慧更有可能描繪膚色較深的人物。這引起了人們對系統中潛在偏見的合理擔憂。
谷歌在聲明中承認,Gemini 在以平衡和包容的方式代表不同種族和背景的人方面表現不佳。該公司決定暫時禁用其人工智慧聊天機器人為人們生成圖像的能力。
谷歌表示,包容性和多元性是其極為重要的原則。該公司不希望其技術傳播或以任何方式受到現實世界偏見的影響。
我們已經在努力解決 Gemini 影像生成功能的最新問題。在我們這樣做的同時,我們將暫停人物圖像的生成,並將很快重新發布改進的版本。https://t.co/SLxYPGoqOZ
– 谷歌通訊 (@Google_Comms) 2024 年 2 月 22 日
當用戶現在要求 Gemini 創建圖像時,他們會收到一條訊息,解釋該功能目前不可用,但一旦偏見問題得到充分解決就會返回。
專家(透過美聯社新聞)表示,人工智慧圖像產生器由於訓練資料中的偏差而難以應對多樣性,這些資料通常缺乏來自所有背景的人的代表。谷歌似乎決心在重新啟用該功能之前解決 Gemini 中的這些限制。它希望確保系統能夠以客觀、平衡的方式代表所有類型的人。
此舉被視為朝著使人工智慧技術公平和包容性邁出的積極一步。作為這項運動的一部分,美國政府於二月採取措施促進生成人工智慧的安全發展。蘋果、OpenAI 和微軟加入了有史以來第一個解決人工智慧協議問題的聯盟。
發佈留言