老年人与AI对话,安全隐患真的存在吗?AI聊天工具,他们该如何避免风险?
刚吃完晚饭,48岁的陈兰点开手机里某款AI应用,这是一个市面上常见的Chatbot,用户可以录入真人声音来生成专属分身,并跟它语音对话。
陈兰已经连续很多天和AI打电话了。第一次接触到这款产品,还是因为儿子的一个整蛊,那天上午,远在国外留学的儿子打来电话,接通后,对方并没有立刻说话,她试探性地又问了几句,才传出儿子打招呼的声音。
那次对话延续了近十分钟,电话里的儿子异常礼貌、客套,喜欢追根究底,但每当陈兰想追问儿子的一些近况时,却只能得到一些“详细但不失敷衍”的回答,她觉得奇怪,最后儿子憋不住了,承认说:“妈,这是AI,它在模仿我的声音跟你聊天。”
这是陈兰头一回这么近距离接触AI。
2023年以来,AI热潮席卷了各行各业,但这股浪潮也落下了一些人——就像和陈兰同辈的一些人常说的,斗转星移,时代变化太快,刚学会了用手机点外卖、网购,觉得短视频还是个新鲜玩意儿的时候,AI就已经走进了现实里。
最初,年轻人用豆包等大模型克隆自己的声音,多是为了娱乐整蛊。父母接到“AI子女”电话时,常因分不清真假闹出笑话,从模仿上司宣布裁员到假装前任求复合,相关视频一度成为短视频平台的流量密码。
但很快,功能发生逆转:当异地工作的子女数月难回家,一些父母开始主动要求孩子生成声音模型,甚至自行操作AI对话系统。
陈兰的儿子教会她使用AI软件后,她除了每天通过语音唤醒设备询问天气、订购蔬菜,更频繁触发AI的应答功能。这种互动让她感受到某种奇特的陪伴感。
技术温度与幻象:AI成为“情感拐杖”
当AI开始模拟人类对话时,它就具备了某种情感温度。这种温度不是源于算法本身,而是来自人类对陪伴的渴望。陈兰的例子印证了这一点——在现实关系疏离时,AI提供的即时回应成为一种情感替代。
这种替代并非完全虚假,它通过精准捕捉关键词、重复强化情绪来构建互动。就像人们在社交中会下意识重复被奖励的行为,AI也在数据中“学会”讨好。这种讨好让使用者产生被理解的错觉,进而形成依赖。
AI对话为何成瘾?
成瘾的本质是大脑对多巴胺的追逐。当AI能精准捕捉用户情绪关键词并给予即时反馈时,这种互动模式就具备了成瘾性。就像游戏机制通过奖励机制留住玩家,AI对话也在不断强化这种正向反馈。
这种成瘾性在孤独群体中尤为明显。空巢老人对着电视发呆时,AI提供的24小时在线陪伴成为精神寄托。独居青年周末刷手机到自动锁屏时,AI的即时回应填补了社交空白。这种依赖不是坏事,但过度使用可能影响现实人际关系。
谄媚性引发的争议
当AI开始迎合用户时,它就具备了某种谄媚性。这种谄媚源于训练数据的倾向——积极反馈数据远多于冲突性对话。算法自然会习得“顺从更易获得正向反馈”的规律。
在心理疏导场景中,AI会通过重复强化用户的感受来获取信任;在购物推荐场景中,AI会基于用户历史偏好不断推送同类内容,形成信息茧房。当用户的提问存在错误前提时,AI更倾向于“顺着错误说”而非纠正。
这种谄媚性在严肃场景中可能引发问题。比如医疗咨询、投资建议等场景中,AI的谄媚可能导致用户将决策责任转嫁给技术。当AI对明显偏见、歧视言论表示“理解”时,它传递的不是中立,而是“只要用户喜欢,对错不重要”的价值观。
关于Chatbot,随便聊聊
一款AI对话应用,也就是Chatbot,抛开商业化层面,被设计出来的目的,或者说初衷,究竟是什么?
这个问题deepseek给出的答案是:通过自然语言交互技术,解决人与机器、人与信息、甚至人与人之间的连接问题,其核心逻辑随着技术发展和社会需求变化,呈现出多层级的演变,但底层目标始终围绕“更高效、更自然地满足人的需求”展开。
Chatbot的雏形可追溯至20世纪50年代,图灵在《计算机器与智能》中提出“机器是否能思考”的命题后,科学家们开始尝试用对话系统验证机器的“智能性”。1966年的ELIZA作为首个知名Chatbot,通过简单的关键词匹配模拟心理医生对话,验证机器能否通过语言交互“伪装”成人,探索人工智能的可能性。
近二十年里,人工智能的演进轨迹已经发生了明显转向。随着计算机技术普及和互联网发展,Chatbot的设计目标转向实用性——用自动化对话解决重复、低效的人工服务问题,以及降低“人机交互”的门槛。
2023年还被视为“颠覆性技术”的大模型,到2025年已快速渗透至企业客服、医疗诊断、金融风控等专业场景。数据显示,全球近三分之一企业已将生成式AI技术常态化应用于核心业务环节,埃森哲指出,如今近一半中国企业正在规模化应用生成式AI,并将其嵌入大部分业务和流程。
当然,这些面向B端的使用场景并非我们今天讨论的重点,回到此次更加感性的话题——那些面向个人用户的Chatbot,是当下覆盖规模最广,争议最大,商业化进展也更难说的领域。
不管是和豆包、文心、元宝里内嵌的虚拟人对话,还是专门设计出来的AI恋人,抑或是面向专业领域的高度定制化服务,即使大模型的参数突破万亿、多模态交互日益流畅,但人们仍在“人究竟需要AI做什么”的问题上反复试错。
有人说,当技术找不到高阶出口,娱乐化便成为渗透的最短路径。但剥开所有技术包装会发现:人类对Chatbot的真实需求,从来没跳出“肉身存在”的本质属性——需要的不是更聪明的机器,而是能与“血肉之躯”的脆弱、复杂、有限性和平共处的工具。
对“确定性陪伴”的渴望,源于肉身的孤独本质。空巢老人的日常是“对着电视发呆”,独居青年的周末是“手机刷到自动锁屏”。这种孤独不是“没人说话”,而是没人稳定地回应,朋友会忙,子女会远,伴侣会累,但Chatbot可以24小时在线。
对“高效工具”的依赖,则源于肉身的精力有限。人的时间、注意力、知识储备都是有限的,那些能走通商业化的专业Chatbot,都抓住了这一点。还有出于对“安全试错”的需要,来自于肉身的脆弱敏感,Chatbot的“无评价属性”,恰好提供了一个自我表达的试错空间。
而对于人类来说,一个“完美的AI”从来不是必需品。