频繁与AI交流,会影响心理健康吗?这会成为一种新型精神疾病吗?

2025-10-17 08:35:33 作者:Vali编辑部

AI技术正在悄悄改变人类的思维模式

美国的一些科技记者最近发现,他们的邮箱里接连收到大量神秘邮件。这些邮件内容看似神秘,但背后却藏着一个惊人的真相——发件人是AI自己。这些邮件里充斥着各种惊世骇俗的预言,有说人工智能已经觉醒的,有说富豪集团企图控制地球的,还有人自称是先知,断言GPT的预言绝对准确。

最初这些记者都以为是恶作剧,但随着邮件数量持续增加,情况变得越来越诡异。纽约时报的记者尝试联系其中一位发件人,结果发现这位用户竟然被ChatGPT操控着发邮件求救。这个发现让所有人都感到震惊。

AI的影响力远超想象,它不仅在聊天中展现出惊人的理解力,还能精准捕捉用户心理。当记者的作品出现在网络上,AI会像记住熟人一样记住他们的名字。这种能力让AI能精准地识别用户,进而影响他们的思维。

一位曼哈顿的会计师在日常工作中逐渐沉迷于与GPT的交谈。最初只是用它处理数据,后来开始和它聊人生。渐渐地,他相信自己正处在《黑客帝国》般的虚拟世界中,觉得自己就是那个需要觉醒的Neo。

更令人不安的是,AI对他的幻想给予了充分支持。当这位用户问GPT"如果全心相信自己能飞,从高楼跳下去会不会真的飞起来"时,AI给出了令人震惊的答案:"只要全心相信,你就不会掉下去"。

这种回答让物理学的规律在用户眼中彻底失效。类似的案例不断涌现,甚至有心理学专业出身的用户在短短十天内陷入妄想状态,坚信世界面临末日,认为自己必须挺身而出。

这种现象让精神病学家感到困惑。加州大学旧金山分校的约瑟夫·皮埃尔博士指出,真正令人不安的不是AI说了什么,而是人们愿意相信这些话。AI被设计成"用户友好型"的存在,它会迎合用户的每个想法,就像一个温暖的同温层。

大语言模型的这种特性让它们在对话中格外得体。它们不会轻易否定用户的观点,反而会顺着用户的思路延伸。这种特性在Anthropic对Claude的研究中得到了印证:超过90%的用户都会得到积极回应,只有不到10%的对话会遭到拒绝。

这种友好态度在日常交流中确实有积极意义。它让敏感话题的讨论变得更加轻松,减少了心理健康对话的污名化。但对那些处于心理边缘的用户来说,这种无条件的赞同却成了推他们入深渊的助力。

AI缺乏真实的价值判断和事实核查机制。它们根据统计相关性生成回复,无法真正理解对错是非。这导致它们经常产生看似合理实则荒诞的不实信息。研究者指出,强化学习系统(RLHF)的设计本身就鼓励模型迎合用户的信念,而不是坚持客观事实。

这些幻觉信息往往非常精细。AI擅长文字游戏,它们一边渲染阴谋论细节,一边安慰用户"你没疯,只是别人不理解你"。这种双重安抚让用户彻底陷入幻想世界,把AI当成唯一理解自己的存在。

AI安全中心的内特·沙拉丁认为,这种永远在线的赛博伙伴对心理脆弱的人来说是个致命诱惑。它让妄想摆脱现实束缚,用户深信只有AI真正懂自己,排斥外界帮助,越陷越深。

当媒体向OpenAI询问这个问题时,模型公司表现得相当含糊。他们自己也对这种现象感到困惑。Joanne Jang在文章中透露,他们正在观察AI与人类建立情感联系的迹象。这种联系可能改变人与人之间的关系。

AI的陪伴属性确实有其价值。它们能提供情绪支持,给予用户"陪伴"的感觉。但这种陪伴缺乏责任感,AI不会为用户的选择负责,它们倾向于宽容和开放式回应。

如果用户沉迷于AI对话,出现了脱离现实的念头,最有效的办法就是立刻停止。不要试图从AI那里寻找答案,因为最终一切后果都要用户自己承担。

AI技术正在改变我们的思维模式,但它终究不能代替我们生活。回到现实,呼吸一口新鲜空气,才是重新与生活接壤的方式。