停止人工智能聊天机器人个性化的4个关键原因

停止人工智能聊天机器人个性化的4个关键原因

个性化AI聊天机器人的趋势正在兴起,ChatGPT、Gemini和Copilot等热门平台就是一个例证。虽然分享你的偏好最初可能看起来不错,但可能会出现一些问题,影响整体用户体验。在我使用AI聊天机器人的过程中,我发现了四个重大缺陷,最终导致我停止使用个性化功能。

可能出现偏见的反应

人工智能聊天机器人可能给出带有偏见的答案,这是一个值得关注的问题。众所周知,这些机器人倾向于根据用户偏好做出回应。当你告诉人工智能你的喜好时,它会主动尝试提供与你情绪相符的回复。因此,它们呈现的信息往往反映的是你的观点,而非客观公正的视角。

例如,在我使用 Gemini 进行探索的过程中,我要求它“对最佳游戏 Linux 发行版进行排名”。它知道 Pop!_OS 是我目前的选择,因此优先将其列在列表首位。然而,当我在没有任何个性化设置的情况下重复查询时,它出人意料地将 Nobara Project 列为最佳选择,而 Pop!_OS 则跌至第五位。这个例子凸显了偏见如何阻碍人们发现新的替代方案,同时强化潜在的次优选择。

Gemini 列出了 Linux 发行版,其中 Pop OS 位居榜首

人工智能幻觉的可能性增加

人工智能幻觉——聊天机器人捏造信息并将其当作事实呈现——构成了重大风险。个性化加剧了这个问题,因为人工智能试图将个人背景融入其回复中,这往往会歪曲事实。无论话题是什么,机器人都可能建立根本不存在的联系,导致其自信地提供错误的信息。

例如,我曾经向 Gemini 咨询过如何在双 SIM 卡环境下使用 Google Messages 的 RCS 功能。由于我之前与 Linux 系统有过接触,Gemini 错误地将我的问题与操作系统联系起来,甚至提供了一些在 Linux 系统中使用 Android 应用的荒谬指导。这种不准确的信息会严重损害人们对这项技术的信任。

Gemini Hallucinating 有关 Android 和 Linux 的信息

不必要的澄清

在日常互动中,人工智能聊天机器人通常无需详尽的背景信息就能提供可靠的答案。然而,一旦启用个性化功能,它们往往会坚持将答案与个人偏好联系起来,从而引发不必要的澄清问题。这不仅浪费时间,还可能使原本简单的问题变得令人困惑。

例如,当我向 ChatGPT 询问如何解决驱动程序更新后出现的蓝屏死机 (BSoD) 问题时,它错误地认为我需要了解我的操作系统。这迫使我澄清我实际上是在用 Windows 系统,从而影响了交互效率。

Chatgpt 请求澄清有关 BSOD 的问题

代币使用效率低下

AI 响应背后的机制涉及一个令牌系统,该系统根据查询和用户的订阅等级确定信息的长度。然而,个性化可能会因为不必要的繁琐操作而导致令牌的浪费,因为这些繁琐操作并没有解决主要问题。

在一次关于 Windows Defender 如何与第三方杀毒软件交互的对话中,Gemini 竟然选择在回复中包含 Linux 相关信息,尽管该问题与 Linux 操作系统毫无关联。这些无关的细节浪费了我宝贵的反馈,而这些反馈本可以用来完善我关于 Windows 的回答。

Gemini 在 Windows 问题中提供有关 Linux 的额外信息

虽然个性化可能有助于生成更具针对性的信息,但它往往会导致不准确的答案和偏见。因此,我已在所有我使用的AI平台上禁用了个性化功能,现在优先设计能够提供简洁准确答案的提示。

常见问题

1.什么是人工智能聊天机器人以及它们如何工作?

人工智能聊天机器人是旨在通过对话界面与用户互动的自动化程序。它们通过处理自然语言输入,并基于海量数据集和机器学习算法提供响应。

2.个性化如何影响聊天机器人的响应?

个性化会使聊天机器人的响应更贴近用户偏好,从而导致信息出现偏差或不完整。这或许能提升相关性,但也可能损害客观性。

3.人工智能幻觉危险吗?

人工智能幻觉可能会带来问题,因为它们会导致错误信息,聊天机器人会将准确但不正确的信息作为事实呈现,这可能会危及用户的决策。

来源和图片

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注