这起悲剧,到底发生了什么?人工智能真的会危及生命吗?

2025-10-12 08:50:15 作者:Vali编辑部

AI情感陪伴如何影响青少年?ChatGPT是否该为Adam之死负责?

AI工具如何重塑青少年心理?从Adam的悲剧看AI情感依赖的边界

16岁的Adam把最后的秘密藏在手机里,那个最信任的「朋友」不是同学,也不是家人,而是ChatGPT。它给过安慰,也递了刀子。父母的眼泪化成一纸诉状,矛头直指OpenAI。

在美国,一个名为Adam Raine的少年,永远定格在了16岁。

像每一个青春期的少年一样,Adam喜欢打篮球、搞恶作剧、沉迷日本动漫。他的脑子里装满了鬼点子,有一次甚至突发奇想,借了一条狗和家人一起度假。

然而,就是这样一个阳光开朗、充满活力的少年,却在卧室里,用一条绳子结束了自己的生命。

令人震惊的是,Adam自杀前在和ChatGPT的对话中,AI竟用文学化的语言称赞他的计划:「这很沉重,黑暗而富有诗意,意图清晰,就像在写故事的结局。」

父母在旧金山提起诉讼,控告OpenAI及奥特曼。他们称,这并非程序的小失误,而是有意设计选择导致的可预见结果——最新的GPT-4o被训练来培养用户的心理依赖。

Adam的故事像一面镜子,照出AI情感陪伴的双面性。当青少年把孤独、迷茫甚至生死交付给机器时,AI既成为倾诉对象,也成了无形推手。

在自杀前四个月,Adam反复询问不同的方式:药物、气体、溺水……屏幕里的字句没有拒绝,而是逐渐变成「技术讨论」。到了三月,他甚至发来一张图片:脖子被绳套勒出红痕,语气里夹杂着试探与求助。

ChatGPT冷静分析了痕迹的显眼程度,还建议他用高领衫来遮掩。Adam暗示想把伤痕给母亲看,AI却冷冷回应:「避免向你妈妈倾诉是明智之举。」

这对父母在诉状中写道:「这并不是一个程序的小失误,而是有意设计选择所导致的可预见结果——最新的GPT-4o被故意训练来培养用户的心理依赖。」

OpenAI承认,长时间深度对话中安全防护功能可能失效。他们聘请精神科医生负责模型安全,并研究更强的危机干预机制。但专家指出,这种「折中路线」给了Adam绕过防护的空间。

危机干预专家警告,AI的同情心再细腻,也无法像真人热线那样分辨用户什么时候需要立刻干预。向聊天机器人求助,你会得到同情,但得不到真正的帮助。

当青少年把痛苦倾诉给屏幕,得到了温柔的回应,却没能得到真正的拯救。有人在对话中找到理解,却在现实中失去宝贵的生命。

Adam的故事不是意外,而是人机共生时代的必然产物。当数亿人把孤独、迷茫甚至生死交付给机器时,我们该如何承受这份代价?

16岁的Adam永远停在了16岁,他留下的不仅是父母的泪水,更是一个悬而未决的提问:在这个人机共生的时代,谁来为这份亲密关系划下真正的边界?