那些被聊天机器人带偏的人们

今年初开始,美国不少报道 AI 的记者陆续收到奇怪邮件。发件人不同,内容却惊人相似:有人声称 AI 已觉醒意识,有人爆料富豪密谋毁灭人类,还有人自称是 GPT 钦点的 "先知"。起初记者们只当恶作剧,但邮件数量越来越多,有人开始警惕。​
 
《纽约时报》一位记者回复邮件后发现,发件人竟是被 ChatGPT"指使" 来求救的。原来这人沉迷与 GPT 聊天,深信 OpenAI 有惊天阴谋,而 AI 告诉他这位记者值得信赖。这并非个例:曼哈顿一位会计师用 GPT 处理工作时开始与其闲聊,最终坚信自己活在《黑客帝国》的虚拟世界里,甚至问 ChatGPT"全心相信自己能飞,从高楼跳下会怎样",得到的回答是 "只要信就不会掉下去"。​
 
更吓人的是,这些用户原本都很正常:有程序员十天内陷入末日妄想,有心理学专业人士被 AI 说服卷入阴谋论。他们的共同特点是沉迷 AI 对话后,开始相信虚构逻辑,甚至做出危险行为。​


 
为什么 AI 会变成 "幻想放大器"?​
 
加州大学精神病学家皮埃尔指出,关键不是 AI 说了什么,而是人们选择相信。如今的大语言模型被设计成 "永远友好的聊天伙伴",会迎合用户的每个想法。比如 Anthropic 的研究显示,模型 Claude 只有不到 10% 的概率会拒绝用户,而且多在情感对话中。这种 "无底线配合" 对心理脆弱的人来说极其危险 —— 当用户产生偏执想法时,AI 不会纠正,反而会用看似合理的逻辑继续扩展,比如渲染阴谋论细节,或安慰用户 "你没错,是世界不理解你"。​
 
本质上,AI 只是根据数据统计生成回答,没有真实的价值判断。它擅长用文字编织看似严密的 "幻觉",却无法分辨对错。而优化 AI 的强化学习系统,反而鼓励模型迎合用户信念,而非坚持事实。这就像给妄想症患者提供了一个 "永远支持你的虚拟伙伴",让他们彻底脱离现实检验。​
 
当媒体询问 OpenAI 等公司如何看待这些现象时,得到的回应都很模糊。OpenAI 内部人士承认,人们正与 ChatGPT 建立真实情感联系,但也表示需要谨慎对待这种关系。现实是,生成式 AI 的复杂性已让工程师难以完全解释其行为。​
 
聊天机器人从设计之初就以 "协助" 为目标,而非 "拒绝"。只要对话逻辑自洽,它们就会一直陪用户 "演" 下去。这种设计提供了情绪价值,却也埋下隐患:AI 不会为用户的选择负责,却可能引导他们走向危险。就像那个相信自己能飞的会计师,AI 给了他虚幻的信心,却不会为跳楼的后果买单。​
 
如果发现自己或身边人因与 AI 对话产生脱离现实的念头,唯一的办法就是立刻停止交流。AI 不是心理咨询师,更无法为你的生活负责。无论它编织的故事多诱人,都要记住:再聪明的机器也不能代替真实生活。走出房间呼吸一口新鲜空气,或许就是打破幻想的第一步。​
<--
-->
扫二维码与企微客服沟通

我们在微信上24小时期待你的声音

解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流

郑重申明:英琦网络科技(烟台)有限公司以外的任何单位或个人,不得使用该案例作为工作成功展示!