
隨著人們對人工智慧的興趣不斷升溫,越來越多的公司開始採用人工智慧技術。然而,人工智慧應用的激增引發了人們對其倫理影響的嚴重擔憂。最近,一所著名大學的研究人員在 Reddit 上進行了一項未經授權且可能不道德的人工智慧實驗,引發了激烈的爭論。此類事件凸顯了採取更嚴格措施確保人工智慧應用的透明度和保護用戶隱私的迫切需求。
Reddit 上的不道德 AI 實驗引發道德擔憂
人工智慧在各個領域的引入引發了人們對道德問題的日益擔憂。蘇黎世大學研究小組最近進行的一項秘密實驗引發了爭議,主要是因為其缺乏用戶同意和道德誠信。該計劃涉及在 subreddit Change My View上部署人工智慧機器人,旨在評估人工智慧如何影響用戶的觀點。
在他們的實驗中,研究人員開發了先進的語言模型,可以偽裝成不同的角色,包括創傷諮商師和虐待受害者。他們的目標是探索這些由人工智慧驅動的互動如何影響人類的觀點。機器人分析了使用者先前的反應以產生個人化回复,而參與者卻並未意識到這些互動的真實性質,這引發了有關心理操縱的重大倫理問題。
直到實驗結束後,蘇黎世大學才告知 subreddit 的版主違反了社群準則,承認他們在沒有必要揭露的情況下使用了人工智慧機器人。這項承認遭到了強烈反對,因為許多人認為整個研究從根本上來說是不道德的。以下是他們官方承認書的摘錄:
在過去的幾個月裡,我們使用多個帳戶在 CMV 上發布。我們的實驗評估了 LLM 在道德場景中的說服力,在這種場景中,人們會要求對方提供反對他們所持觀點的論點。在評論中,我們沒有透露使用人工智慧來撰寫評論,因為這會使研究變得不可行。雖然我們自己沒有寫任何評論,但我們會手動審查發布的每條評論,以確保它們沒有傷害。我們認識到我們的實驗違反了針對人工智慧評論的社群規則,並為此道歉。然而,我們認為,鑑於這一主題的高度社會重要性,進行此類研究至關重要,即使這意味著違反規則。
儘管研究人員承認他們違反了道德規範,但他們為自己的行為辯護,稱該實驗具有重大的社會意義。使用情緒化且具有潛在危害的角色會引起嚴重的擔憂——不僅是關於互動的性質,而且還關於對那些認為自己正在進行真實對話的個人的心理影響。
平台管理員迅速譴責研究人員的行為,認為實驗嚴重違反道德規範。他們將這種違規行為與符合道德規範的研究進行了對比,例如 OpenAI 開展的研究,這些研究在不訴諸欺騙手段的情況下成功探索了類似的影響動態。研究人員的方法跨越了重要的倫理界限,讓個人接受他們未同意參與的實驗,進一步加劇了這種情況。
隨著人工智慧道德實踐的討論不斷發展,這一事件對於我們在人工智慧研究中維護透明度和尊重用戶自主權的重要性起到了至關重要的提醒作用。
發佈留言