
随着人工智能的热度持续升温,越来越多的公司开始采用人工智能技术。然而,人工智能应用的激增也引发了人们对其伦理影响的担忧。最近,一所知名大学的研究人员在Reddit上进行了一项未经授权且可能不道德的人工智能实验,引发了激烈的争论。此类事件凸显了我们迫切需要采取更严格的措施,以确保人工智能应用的透明度并保护用户隐私。
Reddit 上的不道德 AI 实验引发道德担忧
人工智能在各行各业的引入引发了人们对伦理问题的日益担忧。苏黎世大学一个研究团队最近进行的一项秘密实验引发了争议,主要原因是其缺乏用户同意和伦理道德。该团队在Reddit子版块“改变我的观点”上部署了人工智能机器人,旨在评估人工智能如何影响用户观点。
在他们的实验中,研究人员开发了先进的语言模型,可以伪装成不同的角色,包括创伤咨询师和虐待受害者。他们的目标是探索这些人工智能驱动的互动如何影响人类的观点。这些机器人分析用户之前的回复,生成个性化的回复,而参与者却对这些互动的真实性质一无所知,这引发了关于心理操纵的重大伦理问题。
直到实验结束后,苏黎世大学才告知该子版块的版主,该行为违反了社区准则,承认他们在未进行必要披露的情况下使用了人工智能机器人。这一承认引发了强烈反对,许多人认为整个研究从根本上来说都是不道德的。以下是他们官方承认声明的摘录:
过去几个月,我们使用多个账号在CMV上发帖。我们的实验评估了LLM在伦理场景下的说服力,即人们寻求反对其观点的论据。在评论环节,我们没有透露评论是由AI撰写的,因为这会导致研究无法进行。虽然我们自己没有撰写任何评论,但我们手动审核了每条评论,以确保它们没有恶意。我们承认我们的实验违反了禁止AI生成评论的社区规则,并为此道歉。然而,我们认为,鉴于该主题的高度社会重要性,开展此类研究至关重要,即使这意味着违反规则。
尽管研究人员承认自己违反了伦理道德,但他们仍为自己的行为辩护,称该实验具有重大的社会意义。使用情绪化且可能造成伤害的角色引发了严重的担忧——不仅关乎互动的性质,还关乎对那些认为自己正在进行真实对话的个体的心理影响。
平台管理员迅速谴责了研究人员的行为,认为该实验严重违反伦理。他们将此次违规行为与OpenAI等机构开展的符合伦理道德的研究进行了对比,这些研究成功地探索了类似的影响动态,且没有使用欺骗手段。研究人员的方法跨越了重要的伦理界限,让参与者接受他们未同意参与的实验,这进一步加剧了情况的恶化。
随着有关人工智能道德实践的讨论不断发展,这一事件对于我们在人工智能研究中维护透明度和尊重用户自主权的重要性起到了至关重要的提醒作用。
发表回复