那些明星直播,是真的在带货吗?AI技术真的能复制他们的声音?

2025-10-11 09:40:02 作者:Vali编辑部

你有没有发现最近短视频里出现了一些“声音不寻常”的人?

在短视频平台上,越来越多的视频开始使用AI生成的声音。这些声音不仅能模仿真实人物,还能精准还原语气和语调。比如有些视频里,奥运冠军全红婵的声音被用来推销鸡蛋,不少网友在听到“婵宝”亲切的语气后,就下单支持了。这种技术让内容创作变得更高效,但也带来了新的问题。

AI声音克隆技术已经渗透到各种短视频平台和AI工具中。用户只需录制一小段语音,就能生成自己的声音副本。这项技术让内容创作变得更加灵活,但也让声音的使用变得复杂。你的声音可能被用来做各种事情,比如带货、发布消息,甚至进行诈骗。

最近,不少短视频平台开始使用AI声音进行推广。比如奥运冠军孙颖莎、王楚钦的声音被用来推销鸡蛋,虽然他们本人并没有参与代言,但视频效果却非常真实。这种现象引发了广泛关注,也让人们开始思考:AI声音是否真的能替代真人?

除了名人声音,普通人的声音也被AI技术复制。比如雷军的声音被用来发布不实言论,甚至影响选民投票。这种技术让诈骗变得更加隐蔽,也让人们不得不提高警惕。

网络安全公司McAfee的一项调查显示,70%的人分辨不出AI生成的声音和真实声音的区别。7.7%的人表示被AI声音骗过钱,其中36%的人损失了500至3000美元,7%的人损失超过5000美元。这些数据表明,AI声音克隆技术已经对日常生活产生了影响。

AI声音克隆技术的普及也让诈骗手段更加多样化。骗子可以利用AI声音模仿朋友、家人,甚至陌生人,制造虚假的紧急情况。比如有人用AI声音打电话,谎称家人车祸,诱导受害者转账。这种“鱼叉式网络钓鱼”让诈骗更加精准和高效。

为了应对这种风险,专家建议用户在接听电话时,可以约定一个“安全短语”,用来验证身份。比如和家人约定一个只有他们知道的暗号,这样即使有人冒充家人,也能及时发现。

对于老年人等对科技不熟悉的群体,这种风险更大。他们更容易被AI声音欺骗,因此家人需要多加提醒,帮助他们识别真假声音。

AI声音克隆技术的普及也带来了新的挑战。骗子只需要3秒钟的音频,就能生成一个与真实声音匹配度高达85%的克隆声音。如果加入更多训练数据,匹配度甚至可以达到95%。这种技术让诈骗变得更加隐蔽和高效。

除了网络诈骗,AI声音克隆技术还被用于各种商业场景。比如一些短视频平台开始使用AI声音进行带货,让内容更加生动。这种技术让内容创作变得更加灵活,但也让声音的使用变得复杂。

如今,AI声音克隆技术已经渗透到生活的方方面面。从短视频到电子商务,从社交平台到金融服务,AI声音的应用越来越广泛。这种技术让内容创作变得更加高效,但也让声音的使用变得更加复杂。

为了应对这种技术带来的挑战,我国正在出台各种监管手段。2020年,《民法典》首次将声音纳入法律保护,非法模仿他人声音被视为侵权行为。2024年,北京互联网法院判决两家公司向配音演员支付25万元赔偿,这是中国首例保护语音权的法律判决。

2025年9月1日起施行的《人工智能生成合成内容标识办法》也明确要求,服务提供者必须对生成合成内容添加显式标识。这些措施有助于保护用户的权益,减少AI声音克隆带来的风险。

AI声音克隆技术已经改变了我们的生活,它让内容创作更加高效,也让声音的使用更加灵活。然而,这种技术也带来了新的挑战,需要我们在享受便利的同时,提高警惕,保护自己的声音和隐私。

随着技术的不断发展,AI声音克隆的应用场景还会更加广泛。无论是短视频平台、电商平台,还是金融服务,AI声音都将成为重要的工具。但与此同时,我们也需要关注这种技术带来的风险,确保它在可控范围内发挥积极作用。

总之,AI声音克隆技术是一把双刃剑。它既带来了便利,也带来了挑战。我们需要在享受科技带来的好处的同时,提高警惕,保护自己的声音和隐私。这样才能让这项技术真正造福人类,而不是成为诈骗的工具。