DeepSeek使用率骤降,原因何在?未来发展方向是?

2025-10-16 08:20:15 作者:Vali编辑部

半年前,DeepSeek R1的横空出世让整个AI领域掀起轩然大波。这款模型以惊人的速度席卷全球市场,不仅在东西方都引发热议,更被外界视为AI领域的重大突破。其上线后短短20天,日活跃用户数量就突破2215万,成为全球增长最快的AI应用之一。

这款模型的表现堪称惊艳,直接登顶140多个国家的iOS应用商店下载榜,甚至在美区免费应用排行榜中力压ChatGPT,夺得榜首位置。这种现象级的市场反响让科技界为之震撼,其带来的冲击力甚至波及美股市场,纳斯达克100指数期货一度下跌5%,芯片巨头英伟达当日股价暴跌17%,市值蒸发数千亿美元。

然而,就是这样一款曾风光无限的模型,近日却遭遇了前所未有的挑战。外媒SemiAnalysis指出,DeepSeek R1正经历用户流失,流量出现明显下滑。与其它大模型的网页访问量持续增长形成鲜明对比,DeepSeek的流量却出现了近30%的下跌。这种反差让人不禁思考,究竟是什么导致了这种局面?是商业策略的失误,还是DeepSeek有意为之?

这份名为《DeepSeek Debrief: >128 Days Later》的报告,详细剖析了DeepSeek自发布半年来的市场表现。报告显示,用户正在向第三方平台迁移,DeepSeek R1和V3模型在第三方部署使用量已增长近20倍。这种趋势导致官方token消耗占比持续下降,反映出用户对官方平台的不满。

为什么会发生这种情况?报告指出,DeepSeek在追求低价策略时,牺牲了部分用户体验。用户在使用过程中经常遇到首token延迟和输出速度不快的问题。以OpenRouter平台的数据为例,DeepSeek官方平台的响应时间明显长于其他提供相同服务的第三方平台。这种延迟让用户转向更高效的替代方案。

另一个关键因素是上下文窗口的限制。DeepSeek仅支持64K的上下文长度,这在处理大型代码或文档分析时显得力不从心。相比之下,一些第三方平台提供的上下文窗口是DeepSeek官方的2.5倍以上。这种差距直接影响了用户的使用体验,促使他们寻找更合适的工具。

值得注意的是,这些用户体验问题并非DeepSeek无法解决,而是有意为之的选择。通过批量处理请求,DeepSeek实现了成本控制,将算力更多地留在内部用于研究和开发。这种策略让DeepSeek更像是一个算力实验室,而非纯粹的商业公司。

报告中明确指出,DeepSeek的这种选择源于其市场定位。他们更关注AGI(通用人工智能)的实现,而非短期的商业利益。这种"离经叛道"的商业模式,在OpenAI、XAI等传统商业公司中显得格外突出,也让人对R2版本的推出充满期待。

在AI领域,算力始终是决定胜负的关键。Anthropic这家与DeepSeek处境相似的公司,也在探索自己的破局之道。他们将产品开发重心放在代码工具上,通过Cursor等编码应用获得市场认可。随后推出的Claude Code工具,迅速获得用户青睐,对OpenAI的Codex形成有力竞争。

为了应对算力瓶颈,Anthropic采取了双管齐下的策略。一方面积极与亚马逊、谷歌等云服务商合作,获取更多计算资源,包括获得超过五十万个Trainium芯片和大量TPU计算资源。另一方面通过模型优化,减少每个回答所需的token数量,使回答更精炼,从而在保持效率的同时提升用户体验。

国内网友对DeepSeek的讨论同样热烈。有人吐槽其使用体验,认为速度慢、幻觉问题频发、服务器繁忙时无法使用,甚至出现和谐问题。但也有用户坚持认为,开源模型与闭源模型相比存在不公平性,DeepSeek的第三方托管平台众多,官方平台的使用量难以完全反映模型实力。

大模型行业的竞争日益激烈,各家模型迭代更新速度加快。自R1发布以来,GPT-4.5、Gemini 2.5、文心大模型4.5、通义千问3、Claude 4、Grok 4、Kimi K2等新模型相继推出。尽管R1在5月进行了重要更新,但R2的推出一再延迟,让用户转向其他新模型。

在技术发展与商业利益之间,DeepSeek选择了独特的道路:通过牺牲用户体验换取更多研发资源,通过开源策略扩大全球影响力。而Anthropic则在资源限制下努力优化效率,提供更好的用户体验。这种不同路径的选择,正是大模型行业发展的缩影。

当前,Grok4刚刚推出,GPT5和Gemini3的推出消息在业内流传,竞争愈发激烈。价格战只是表象,真正的较量在于如何在有限资源下实现技术突破,以及如何在商业成功与技术理想之间找到平衡。这场持久战,才刚刚开始。