預設設定成為新的同意:科技巨頭利用用戶選擇退出疲勞進行人工智慧訓練

預設設定成為新的同意:科技巨頭利用用戶選擇退出疲勞進行人工智慧訓練

在快速發展的科技領域,各大科技公司頻繁更新隱私權政策已成常態。這些修訂中反覆出現的主題是:「我們正在使用您的資料來訓練人工智慧,除非您選擇阻止我們。」 這種情況反映的並非真正的同意,而是一種普遍存在的數位疲勞感,使用者對保護自身資料的需求感到不堪重負。

這種現象通常被稱為“選擇退出疲勞”,凸顯了當今虛擬環境中數位權利的關鍵問題。使用者現在不僅要瀏覽互聯網,還要承擔保護個人資訊不被人工智慧系統利用的責任。

轉向預設選擇加入:新常態

生成式人工智慧技術的蓬勃發展,迫使企業累積大量使用者數據,用於模型訓練。最初,使用者可以選擇加入,但這種做法如今已成為一種預設規範。這種趨勢已經演變成一種常態:用戶同意即為默認,異議則需要付出努力。

預設選擇加入人工智慧隱私

例如,領英預設將用戶生成的內容(例如貼文、評論和個人資料)整合到其人工智慧訓練中,儘管聲稱匿名,但實際上無需用戶明確同意即可存取大量資料。用戶可以選擇退出,但這需要瀏覽多個選單,而這個過程的前提是用戶同意。

同樣,Meta 的 Llama 模型會自動利用 Facebook 和 Instagram 的公開內容,甚至擴展到影響定向廣告,而用戶通常必須刪除整個聊天線程才能維護隱私。

谷歌的 Gemini 專案同樣允許 AI 存取 YouTube 歷史記錄和搜尋查詢,除非用戶主動更改隱私設定。深入了解Google如何建立 Gemini Gems 的共享機制,可以揭示資料存取特權背後的「同意」假設。

此外,Anthropic 的 Claude 聊天機器人最近更新了其政策,將用戶聊天記錄保留長達五年以用於培訓目的,對於那些希望避免此類資料保留的人來說,必須選擇退出。

這種趨勢是有意為之,反映了一種更廣泛的策略,即公司優先考慮資料的無縫流動——利用大多數用戶可能沒有註意到這些變化,而那些注意到變化的用戶往往缺乏時間或意願採取行動的事實。

更複雜的是,許多地區現有的隱私法規主要是為了解決 Cookie 和廣告行為而設計的,這使得公司有餘地建立這些選擇退出預設設置,因為它們仍然領先於監管框架。

現行退出系統的缺陷

網路隱私選擇的概念已日益淪為一種幻想。儘管用戶理論上擁有選擇退出的權利,但真正履行這項權利的人卻寥寥無幾,這主要是由於「同意疲勞」。海量的選擇和政策更新常常讓人不知所措,最終導致決策癱瘓。

人工智慧公司利用了這種疲勞,創造了大量令人困惑的彈跳窗,削弱了「我們已更新隱私權政策」通知的影響力。因此,點擊「接受」已經從有意識的決定演變成一種自動反應。

出於習慣點擊“接受”

根據皮尤研究中心2023 年的研究,近 80% 的美國人因隱私權政策過於複雜且耗時,而選擇放棄閱讀。企業非常了解這種行為,並據此制定相應的政策。

我們都經歷過這種情況:明明知道應該仔細研究,卻還是匆匆瀏覽了一次條款。這些公司不需要欺騙;用戶疲勞也能同樣有效地達到他們的目的,將隱私的責任轉嫁到個人身上。使用者必須探索複雜的設定才能重新獲得自己的資料權利。

就克勞德的案例而言,即使用戶選擇退出,過去的資料仍會保存數年,而Google的隱私設定可能只有在用戶選擇退出後才會刪除歷史記錄,這迫使用戶在維護實用性和確保隱私之間做出選擇。許多平台都面臨同樣的困境。

誰真正受益?

目前圍繞人工智慧資料隱私的「選擇退出」討論不僅是一場爭奪用戶隱私的鬥爭,更是一場爭奪經濟利益和影響力的競賽。人工智慧公司從現有的數據消費體系中獲益良多。

人工智慧公司從您的數據中獲益

根據SemrushStatista的預測,全球人工智慧市場預計將從 2024 年的 6, 380 億美元增長到 2030 年的 1.8 兆美元,這主要得益於用戶數據,這些數據允許進行模型訓練而無需額外的許可成本。

LinkedIn 與 Azure 和 OpenAI 的整合、Meta 的擴張性 AI 計劃以及Google的 Gemini 等技術,都依賴持續收集大量資料以進行改進。用戶產生的內容越多,這些系統的獲利能力就越強。

這種模式本質上保證了數據的持續湧入;用戶作為提供免費培訓材料的無償勞動力,使公司能夠在旨在優化或取代人類角色的產品中將這些見解貨幣化。

最終,這種情況會形成一個壟斷環境,較小的人工智慧實體難以與這些擁有豐富數據的巨頭競爭。

結果顯而易見:大型人工智慧公司創造了一個循環:改進的人工智慧解決方案吸引了更多用戶,從而產生了更多的數據。同時,一般使用者卻只能從增強的功能中獲益甚微,卻犧牲了他們的隱私和對個人資料的控制權。

儘管面臨諸多挑戰,使用者仍保留自主權。在歐洲各地,積極主動的隱私權倡議者正在根據《一般資料保護規範》(GDPR)對未經授權的人工智慧資料處理行為提出投訴。 GDPR第21條賦予個人反對處理其個人資料的權利,成千上萬的人開始行使這項權利。

印度等地區已經全面實施了類似的隱私法,包括《DPDP法案》、中國的《PIPL》和加州的《消費者隱私法案》,這些法律都旨在遏制用於人工智慧的資料採購和處理機制,並對違規行為處以高達全球營業額 4% 的罰款。

在隱私權法較落後的地區,保持警惕至關重要。採取主動措施,例如使用增強隱私的瀏覽器工具和停用人工智慧推薦,可以帶來顯著的效果。

立即關閉AI訓練功能,調整Meta的配置,取消ChatGPT的「為所有人改進模型」鏈接,並調整Copilot的隱私設定。此外,建議刪除舊聊天記錄以限制潛在暴露,並在處理敏感資訊時使用臨時模式。

核心重點是,集體行動可以帶來實質的改變。如果用戶團結起來,選擇退出並表達異議,科技公司將被迫尋求真正的同意,而不是假設用戶同意。

支持選擇加入

然而,僅靠個人警戒是不夠的。必須建立一種範式轉變,將「選擇加入」作為標準。實現這一點將減少企業的過度擴張,並有助於恢復信任。

採用明確的知情同意機制將使使用者能夠自願決定是否共享資料。降低資料囤積的難度將遏制不道德的行為,鼓勵採用授權資料集等合乎道德的資料獲取方法。

實施「選擇加入」偏好設定不會阻礙創新;相反,它可能會推動隱私增強技術的進步,例如改進匿名化,從而吸引資料共享者。例如,Proton 的 Lumo 聊天機器人就成功地體現了這種創新做法。

雖然我並不反對人工智慧的發展——身為科技作家,我一直在探討這些議題——但我主張的是選擇的必要性。重點不應該放在侵犯隱私上,而應該透過真正的創新來尊重隱私。

透過意識賦予用戶權力

預設選擇加入政策不僅是為了方便,它代表著對控制權的追求。關於人工智慧資料隱私的持續爭論,不僅是一場技術討論,更是一場爭奪我們數位身分所有權的重大鬥爭。

「選擇退出疲勞」的出現,顯示科技巨頭如何利用使用者疲勞來製造武器。他們的勝利在於用戶不再爭奪控制權。因此,我們必須堅定不移,不能放棄自主權。

接受默許只會讓他們更容易在未經我們批准的情況下採取行動。因此,我們必須保持警惕,並要求優先保護資料隱私。

來源和圖片

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *