王一博事件后续如何?辟谣信息靠不靠谱?

2025-10-17 09:05:39 作者:Vali编辑部

最近一段关于AI模型DeepSeek的争议闹得沸沸扬扬。有媒体声称,这个AI大模型在回答用户提问时,把王一博和李爱庆腐败案强行关联,引发舆论哗然。该媒体还指出,DeepSeek方面已经公开道歉,撤回相关失实信息,并引用了北京市第三中级人民法院的刑事判决书作为佐证。

不过事情远没有这么简单。虎嗅记者调查发现,DeepSeek的官方社交账号并未发布任何道歉声明。无论是微信公众号、官网还是X平台,都没有相关截图。更让人疑惑的是,多家媒体在报道时都宣称DeepSeek已经道歉,但这些报道中都没有明确指出道歉的具体渠道和声明内容。

这场风波的戏剧性在于,全网几乎都认定DeepSeek真的道歉了。从自媒体到传统媒体,各种平台都在第一时间跟进报道。就连市面上主流的AI大模型,比如KIMI、豆包等,都表示DeepSeek确实就此事道歉,并引用了相同的新闻链接。这种高度一致的描述,反而让事件变得更加扑朔迷离。

事件背后反映出的,不仅仅是新闻报道的严谨性问题。作为长期跟踪科技新闻的从业者,我认为这更暴露了当下AI大模型面临的严峻挑战——当网络充斥着虚假信息时,AI生成的假新闻比真实新闻更容易被广泛传播。这种现象比传统的“幻觉问题”更值得警惕。

说到AI的幻觉问题,很多人会想到它在没有依据的情况下编造事实。但随着技术进步,大模型现在能通过联网搜索和推理来生成回答。这本应是好事,却带来了新的问题。当网络上充斥着大量虚假信息时,连人类都难以分辨真伪,AI就更难做到精准判断了。

从笔者日常写作经验来看,AI并不能完全替代人类完成新闻写作。虽然它能快速生成初稿,但最终仍需要人工校对。很多新闻从业者反映,使用AI辅助写作反而降低了工作效率。因为大部分时间都花在核查AI生成信息的准确性上,即便它引用了权威来源,仍需再次验证内容的真实性。

回到这个具体案例,它给AI行业敲响了警钟。如何在真假难辨的网络世界里辨别信息真伪,是提升AI生成准确率的关键。这也是为什么很多企业应用大模型时,会先给它喂养企业专属的知识库。这样当员工提问时,AI就能基于企业内部数据生成更准确的回答。

对人类来说,这个事件也带来了新的启示。当人类自己都在制造假消息时,AI就更难保证答案的准确性。这种信息污染的循环,让整个新闻生态面临更大挑战。我们需要更严格的核查机制,让AI在生成内容时保持更高水准的准确性。

从这个角度看,DeepSeek事件不仅是AI模型的尴尬时刻,更是整个行业发展的转折点。它提醒我们,在享受AI带来便利的同时,也要时刻关注信息的真实性。只有当AI能精准识别真假信息,才能真正胜任新闻写作等重要任务。