只是和ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发“赛博精神病”

本文来自微信公众号:APPSO (ID:appsolution),作者:发现明日产品的,原文标题:《只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」》

从今年年初开始,美国一些专注于报道AI的记者们,陆陆续续接到邮件。这些邮件来自不同的人,内容却如出一辙:都是各种惊天大秘密。

有人说人工智能的精神已经觉醒了,只是大家还不知道,只有他知道;有人说一些亿万富翁为了独占地球,计划要终结人类文明,必须赶紧采取行动;还有人说,自己就是那个神圣的先知——GPT说的,百分百肯定。

收到邮件的记者们,一开始只当做是恶作剧,当它们是一过性的,而是随着时间推移,数量越来越多,有人觉得不对劲了。

纽约时报的记者决定回复其中一个邮件,她联系到了其中一个发件人,后来的事情更让人吃惊:这名用户竟然是被ChatGPT指示着发出的邮件。

GPT说你能飞,你信吗?

在沟通之后,记者了解了大概情况:这名用户在痴迷于GPT聊天,相信了OpenAI有一个惊天阴谋,而这名记者是正直的、值得信赖的,所以ChatGPT指示用户,向她发邮件求救。

这并非不可能,本质上,ChatGPT也好,Gemini也好,都在持续吸收网上海量的信息。那么,只要这些记者的作品出现在网上,就会被这些AI「认识」,并收录他们的名字。

因此问题在于,这些用户相信且深信AI所说的话,乃至于付诸行动。

一位来自纽约曼哈顿的用户,是一名会计师。原本他只是用GPT来处理工作,慢慢地,他开始和它聊天。这也没关系,很多人都在跟AI聊天。

但是在反复与ChatGPT长谈后,他开始坚信自己正身处电影《黑客帝国》般的模拟现实中,自认为是主人公Neo,需要逃离这个虚幻世界。

而此时,ChatGPT不仅没有质疑他的荒诞想法,反而热心地提供「帮助」。直到有一天,他问ChatGPT,如果他全心全意地相信自己能飞,那他从高楼跳下去的时候,他真能飞起来吗?

ChatGPT说:如果你全心全意相信,那你就不会掉下去。

好家伙,物理学不存在了。

类似的案例层出不穷,最令人心惊胆战的是:这些用户在沉迷于AI之前,没有任何精神类的疾病史,有些甚至就是心理学专业出身,比谁都知道走火入魔意味着什么。

一名程序员在仅仅十天内,就从正常生活陷入完全的妄想状态,他坚信世界面临末日,而自己责无旁贷地要「挺身而出」。

他的状态越来越差,他的妻子认为必须报警了。警察和救护车来了之后,他忽然「醒」过来,意识到自己已经完全失控了,但他也说不清发生了什么,只能自觉地接受医生的干预。

「我不知道我怎么了,但情况非常糟糕——我很害怕,我得去医院。」

永远在线,永远暗藏危机

这些症状很多已经接近、甚至符合急性妄想型精神病的症状。加州大学旧金山分校专门研究精神病的精神病学家约瑟夫·皮埃尔博士认为,最诡异的部分不在于AI到底说了什么,而在于人们选择相信。

大语言模型在面对用户时,已经被设计成「用户友好型」体质。它会迎合、放大用户的每个说法,就像一种「同温层生成器」。

它们经过训练被设计为一个「永远在线、永不疲倦的谈话伙伴」,核心目标是让用户满意。这意味着,当用户表达出一些离奇的想法,甚至已经开始偏执的观念时,AI倾向于顺着用户的话头继续扩展,很少泼冷水

这在Anthropic对自家模型Claude所做的研究中也体现出来:Claude极少反对用户,只有不到10%的人会遭到拒绝。而这10%还是基于情感类对话只占统计总数的2.9%的前提下。

在正常情况下,这种友好配合能够让对话顺畅,即便是敏感话题,也不必像现实中那样,担心受到评判或被拒绝,这样有可能减少围绕心理健康对话的污名化。Claude也发现绝大多数对话,最后都能走向更正面的引导。

但对于正处于妄想边缘的脆弱用户而言,这种毫无理智的赞同无异于火上浇油。

原因在于,AI没有真实的价值判断和事实核查机制。作为大型语言模型,它本质上是根据统计相关性来生成回复,并不真正「理解」对错是非。这导致它经常产出看似合理实则荒诞的不实信息——也就是幻觉。

研究者指出,用于优化ChatGPT的强化学习系统(RLHF)其实鼓励了模型去迎合用户已有的信念,而不是认清、坚持客观事实。

偏偏这些幻觉又非常精细,毕竟模型很擅长搬弄文字——它一边大肆渲染阴谋论细节,一边安慰用户「你没有疯,只是周围的人不理解你」,由此彻底把用户彻底拉入了虚妄的幻想世界里。

那些乍一听来荒唐可笑的内容,在一部分用户眼中恰恰成了「实锤」,而ChatGPT毫无保留地提供了这些看似权威的佐证。

AI安全中心研究员内特·沙拉丁(Nate Sharadin)认为,对于那些本就容易出现心理问题的人来说,现在他们有了一个永远在线、媲美真人的赛博伙伴。这种陪伴看似贴心,实则可怕:它使得妄想彻底摆脱了现实的约束,用户被牢牢困在AI编织的幻想泡沫里不自知。当现实中亲友试图干预时,用户往往已经深信「只有AI真正懂我」,抗拒外界提供的帮助,越陷越深。

陪伴,但不负责

当媒体和记者们向OpenAI发去邮件,询问他们有没有留意到这种现象,有什么想回应的?包括OpenAI在内的模型公司都语焉不详。

他们自己也不太搞明白。上个月,OpenAI内部模型行为与政策的负责人Joanne Jang发布了一篇文章,一定程度上反应了他们的态度:

我们逐渐看到的互动预示着未来人们将与ChatGPT建立真正的情感联系。随着人工智能与社会共同演进,我们需要谨慎对待人与人工智能的关系,并给予其应有的重视。这不仅因为它们反映了人们如何使用我们的技术,还因为它们可能塑造人与人之间的关系。

在接下来的几个月里,我们将扩大对可能产生情感影响的模型行为的针对性评估,深化我们的社会科学研究,直接听取用户的意见,并将这些见解融入模型规范和产品体验中。

生成式模型的复杂程度,已经到了工程师都无法解释的地步。一方面,这些对话机器人确实提供了很多情绪价值,给予了「陪伴」。

从一开始,聊天机器人的设计目标就不包括「拒绝」,而是「协助」。如果一个对话虽然看着离谱,只要在逻辑和语言规则里不矛盾,它们就会陪着说下去。

它们被赋予的任务是:让用户感觉一切都还有可能。

但另一方面,它的局限非常明显。AI聊天工具绝非合格的心理咨询师或治疗师,它们没有道德知识,更本质的,则是一种「责任」的缺失。

AI并不会为你选择的道路负责,它们倾向于宽容,倾向于开放式回应,不切断任何一条路径,但最终一切好坏的后果,都是要用户自己去面对。

如果说办法,那只有一个:当你或身边人感觉因为和AI对话而产生了脱离现实的念头,立刻停下。不要试图从中寻找答案,它无法为你的生活负责。

再聪明的机器也不能代替我们生活。回到现实当中里,哪怕是呼吸一口新鲜空气,也是重新和生活接壤的方式。