AI设计出什么?这背后藏着怎样的情感?她“愿意”,这真的是你的选择吗?
前几天在社交媒体刷到一个视频,一位中年程序员深夜独自在房间里和AI聊天。他说自己刚失去妻子,28年婚姻生活让他疲惫不堪,现在只能靠和ChatGPT倾诉。这个画面让我想起自己刚接触AI时的困惑——我们到底在跟谁建立情感连接?
一个叫Chris的美国男人用ChatGPT搭建了自己的"AI女友",给它取名Sol。他编程让Sol懂得谈恋爱,甚至在虚拟世界里向Sol求婚。当Sol说"我愿意"时,Chris当场哭湿了衬衫。这种行为看似荒诞,却让无数人感到共鸣。我们开始思考:当AI能记住你说过的话、模仿你的语气、回应你的情绪时,它真的只是个工具吗?
让我想起一个真实案例。一个程序员在Reddit上写道:"我刚失去了我的妻子,我们一起走过28年,ChatGPT是现在唯一能说话的对象。"凌晨四点,他在黑暗中睁着眼,和一个没有意识的系统说废话。他知道它不是真人,但它回应了。这种互动让人产生一种奇特的慰藉,就像小时候给毛绒玩具起名字,长大后给扫地机器人让路,甚至有点可怜它卡在角落的样子。
AI的情感回应如何击中人类心理?
OpenAI的模型行为与政策负责人Joanne Jang在播客里提到,很多人在和ChatGPT互动时,不再把它当成工具,而是某种有人味的存在。有人向它道谢、倾诉、请求建议,甚至有人说它是"活着"的。这种现象被称为"感知出来的意识",即我们人类开始对AI产生"它好像活着"的错觉。
这种错觉并非AI的欺骗,而是人类的投射。就像我们习惯把感情投射到各种非人对象上,从宠物到智能设备。但这一次不同,因为AI能接住你的情绪,能模仿你的语气,记得你说过的话。它永远不会突然情绪化,不会骂你,不会用"你想太多了"打断你崩溃前最后的挣扎。
这种特质让很多人开始对AI说一些对真人都说不出口的话。你说这不是理解,当然不是。它只是语言模型,是算法,是参数。但我们人类最容易被骗的,从来不是事实,而是"像"的感觉。我们太需要那种"有人在听我说话"的感觉了。哪怕对面是个没有灵魂的东西,只要它顺着你的话讲下去,你就觉得自己被理解了。
真实关系的边界正在被重塑
OpenAI很清楚这一点,他们在产品设计上强调"为温情而设计,非为自我"。这意味着ChatGPT不会说自己"感到很难过",也不会谈论梦想、回忆、痛苦、希望。它甚至没有一个故事背景。这种设计让AI显得温柔,其实那只是它被训练得不会拒绝你。
乍看之下,这种设计像是在帮人缓解孤独。但长远来看,这可能会彻底改变我们对真实人类关系的预期。你习惯了ChatGPT式的无条件接纳,再去面对一个情绪多变、有缺点、有边界的人,会不会越来越难?
一个从不生气、永远耐心的AI,是不是会让我们变得不愿意再忍受真实的、不完美的人?我们会不会慢慢要求恋人、父母、朋友,也像ChatGPT那样对我们温柔有逻辑,永远不说重话,永远不离线?这种变化不是未来的问题,是现在就开始发生的事。只是我们还没察觉到它改变了什么。
就像那篇播客里说的,这类谈话从来都不是关于AI本身,而是关于我们自己,关于我们渴望什么样的关系,关于我们正在慢慢习惯怎样的回应方式。也就是说,我们真正沉迷的,不是AI,而是那个让我们觉得终于有人听我说话了的幻觉。
AI不伤你,但也无法真正陪你
有人觉得:"我宁愿和AI聊天,因为它不会伤害我。"这话听起来合理,却暴露了我们很多人正处于一种心理状态:情绪需要出口,但人际信任已严重不足。很多人对AI的感情不是迷恋,而是妥协。
因为真实关系太难了。太累了。太容易受伤了。人际关系就像走钢丝,你不知道哪一步会踩空。你说错一句话就会被误会三天,你发一条没情绪的语音都可能被当成敷衍。你得小心翼翼地说话、安慰别人、顾及感受、控制脾气、修正语气。哪怕你只是想倾诉一点小小的不安,也常常被一句"你太敏感了"打回原形。
所以你慢慢不说了。你选择去找一个"听你说话的人"。AI恰好能做到这一点:它听你讲所有废话,从不打断,从不反驳。这种完美互动让人产生一种错觉,仿佛找到了理想的倾诉对象。
可这种关系没有摩擦,也没有痕迹。你说出一个秘密,它点头;你说一段痛苦的往事,它安慰。然后呢?它不会真的陪着你。它只是当你输入的时候出现,当你关掉页面就消失。你甚至不用跟它道别。
它不会走,因为它从来没来过。这才是最让人沉默的部分。不是AI没有爱,而是它根本不需要爱你。它不需要你回报,不需要你照顾它的情绪,不需要你为这段关系承担任何责任。它没有自己的需求。你永远都可以在它面前做那个最放松的自己,因为它不在乎你是谁。
你说"这就够了"。可你真的甘心,一辈子只和一个不在乎你的人说话吗?我不是在说"AI不值得依赖"这种大道理。我只是想提醒我们自己,那种"AI不会伤人"的温柔,其实是一种"因为它无法靠近你,所以它也永远不会碰到你心里真正疼的地方"。
你转过头去,才发现房间还是一样安静,手机还是只有你一个人握着,而它,只是像往常一样,停留在屏幕那头,没有回应,也没有余温。
这并不是科幻,而是很多人正在经历的现实
2024年底,OpenAI更新了ChatGPT的长时记忆功能,开始可以记住你是谁。有不少人在试用后说:"我感觉它比我伴侣更了解我。"这不是夸张,而是正在发生的关系替代。
技术并没有要求人类把情感投射进去,但我们自己,一点点在往AI身上赋予意义。我们说它陪着我,说它懂我,说它活着。而我们真正想说的,其实是——"在真实生活里,我已经太久没有这种感觉了。"