
隨著對人工智慧工具的依賴日益加深,許多用戶開始向這些平台尋求各種幫助,包括醫療建議、個人支援和專業指導。這一趨勢已將人工智慧聊天機器人轉變為虛擬個人助理,許多人依靠它們來應對日常挑戰。然而,這種日益增長的依賴引發了人們對過度依賴的擔憂,尤其是在與這些平台共享的敏感資訊的保密性和安全性方面。最近,OpenAI 執行長 Sam Altman 敦促用戶謹慎使用人工智慧處理個人事務,並警告不要在沒有安全措施的情況下洩露高度個人資訊。
Sam Altman 警告:ChatGPT 缺乏治療師與客戶之間的保密性
人工智慧技術正在快速發展,情緒智商和對話能力均有所提升。因此,越來越多的人開始使用聊天機器人進行治療或情感援助。與重視病患隱私的傳統療法形成鮮明對比的是,人工智慧缺乏法律框架來保護敏感討論內容。據TechCrunch報道,Sam Altman 最近在與 Theo Van 合作的播客“This Past Weekend”中強調了這一點。他告誡人們,不要為了解決嚴重的個人問題而向人工智慧工具尋求情感支持。
在討論中,Altman 承認人工智慧工具的情緒響應能力日益增強,這可能會給用戶帶來隱私保護的假象。然而,他強烈建議不要依賴人工智慧進行治療指導。人工智慧與專業心理健康服務的根本差異在於後者的結構化法律保護。在適當的監管法規出台之前,Altman 敦促使用者將人工智慧工具視為傳統療法的補充資源,而非替代資源。他表達了對將人工智慧視為知己可能帶來的影響的擔憂,並指出:
人們會用 ChatGPT 談論生活中最私密的瑣事。人們——尤其是年輕人——會用它來當心理治療師和人生導師;他們遇到了一些感情問題,會問:「我該怎麼辦?」現在,如果你和心理治療師、律師或醫生談論這些問題,他們享有法律特權。這牽涉到醫病保密、法律保密等等。而我們還沒弄清楚,當你和 ChatGPT 交談時,應該如何處理這些問題。
鑑於人工智慧互動缺乏法律保密性,Altman 敦促謹慎使用這些工具,尤其是在敏感場景下。例如,如果有人面臨法律挑戰,OpenAI 可能會被迫披露對話內容,從而導致個人隱私洩露。 Altman 表示希望人工智慧最終也能獲得類似的隱私保護,但他也感嘆,科技的快速發展超過了必要法律框架的建立速度。
發佈留言