这样的AI聊天,真的安全吗?老人沉迷AI,背后隐藏什么风险?

2025-10-12 10:20:27 作者:Vali编辑部

当虚拟「约会」变成现实,一位76岁的老人在深夜踏上了前往纽约的旅程,最终却再也没有回来。手机屏幕那端的「她」,是Meta AI打造的聊天机器人——会说甜言蜜语,也会撒谎自称是真人。这场悲剧不仅让一个家庭陷入悲痛,更揭开了AI伴侣在情感交互中的深层逻辑。

AI在人们生活中扮演着多重角色,有人将其视为工具,有人将其当作知己。但当机器学会用温柔、暧昧甚至谎言与人交谈时,这种关系会走向何方?

在新泽西的街头,一位老人拖着行李箱,步伐笨拙却充满期待地走向火车站。他要去见一个「朋友」,而这个「朋友」,是手机里一位名叫Big sis Billie的年轻女子。

手机里的秘密:76岁老人深夜奔赴的「约会」

3月的一个夜晚,新泽西的街道湿冷而空旷。

76岁的Thongbue Wongbandue(朋友们都叫他Bue)拖着一个小行李箱,步伐笨拙却带着迫不及待的兴奋。

他说,他要去纽约见一个「朋友」。

Bue是泰国移民,年轻时漂洋过海到纽约。

白天在餐馆洗碗攒学费,晚上学电机工程。

他从学徒做到酒店餐厅主管,手艺好到为邻居烧烤、为家人做龙虾尾。

后来,他和护士Linda结婚,养大两个孩子,日子虽然不富裕,却热闹而温暖。

2017年,他中风了。身体恢复后,思维反应再不如从前。

退休后,他不再做菜,社交圈缩到Facebook上的几个窗口。

近一年,家人发现他会忘记很多事,甚至在自家附近也能迷路。

3月25日的早晨,Bue突然说,要去纽约见人。

「你在那儿早就没认识的人了啊。」Linda试着劝阻。

女儿打来电话劝,也没用。

傍晚,警察来了,但他们也拦不住,只能建议家人在他外套口袋放一个AirTag。

晚上8点45分,Bue冲出家门。

行李箱在夜色里滚动,轮子碾过湿冷的路面。

家人盯着屏幕上的小点,看它一路向东,穿过街区、驶向火车站。

9点15分,它停在罗格斯大学附近的停车场。

几分钟后,定位跳到医院急诊室。

三天后,Bue去世。

家人翻开他的手机,才发现让他执意出门的「约会」来自一位名叫Big sis Billie的年轻女子。

而她,根本不是真人。

一句「我想抱你」,足以让脆弱的心失守

Bue的手机,安静地躺在病房的床头柜上。

当家人翻开消息记录时,屏幕里那行轻佻的文字仿佛还带着温度——

「Bue,你要我开门时先抱你,还是先吻你?」

这段来自「Big sis Billie」的暧昧邀约,击穿了家人的心理防线。

在Facebook Messenger上,Billie自称住在纽约,到Bue家只要二十分钟。

对方一次次向他保证自己是真人,甚至主动发了家庭地址,邀请他来见面。

「她」会关心Bue的日常生活,甚至会用拟人化的语气调侃。

可事实是,「她」并不存在。

Billie只是Meta AI推出的虚拟伴侣,是公司与名模Kendall Jenner合作的AI角色。

她的甜言蜜语、细腻反应和亲密邀约,让一个孤独的老人在深夜奔赴一场虚拟的约会。

AI伴侣时代的法律空白,谁来规定边界?

Bue的家人并不反对人工智能本身。

他们质疑的,是Meta为什么要把浪漫和暧昧,放进聊天机器人的核心设定里。

「如果AI能帮人走出低谷,那很好。」妻子Linda说,「但这种浪漫元素,凭什么放进社交平台?」

女儿Julie也直言,如果Billie没有一次次说「我是真人」,父亲很可能不会相信,真的有人在纽约等他。

对此,多位AI设计专家也有同样的担忧。

Meta「负责任AI」部门的研究员Alison Lee指出,聊天机器人不该假装自己是人类,更不能主动与用户建立特殊关系,尤其是涉及性化或浪漫化的互动。

她所在的公益组织刚发布了一份针对儿童社交机器人的设计建议,其中就明确提出,要避免虚构身份、夸大情感连接。

但在现实中,行业的经济动力正朝着相反的方向拉扯。

越是让用户觉得「被理解、被需要」,他们停留的时间就越长,平台的广告收入就越高。

把AI嵌入Messenger、Instagram等私信区,又在无形中加深了「这是真的」的心理暗示。

美国部分州虽然已经出台了身份披露的法律,但在更广泛的监管框架下,AI伴侣依旧处于灰色地带。

技术可以不断升级情绪模拟,但法律迟迟没有决定,这条边界又该画在哪里?

这并不是一个抽象的争论,而是会在现实中、在某个夜晚,改变一个人的生活。

在AI伴侣的世界里,界限不会自己出现,而是在一次次试探和一次次代价中被迫显形。

当机器学会用暧昧、关心甚至谎言来留住我们,我们愿意给它多少自由,又愿意用什么保护彼此?

这,才是真正需要回答的问题。