Kimi的新模型争议不断?这背后隐藏着什么?Qwen技术是否被再次利用?

2025-10-18 10:40:19 作者:Vali编辑部

昨夜凌晨,月之暗面正式发布了开源代码模型Kimi-Dev-72B。这款模型在软件工程任务基准测试SWE-bench Verified上斩获60.4%的得分,刷新了开源模型的性能记录。这个成绩不仅超越了包括DeepSeek在内的多个竞品,更让开发者们开始关注这个新晋选手的底层技术架构。当人们深入研究模型细节时,发现它明确标注了Base model: Qwen/Qwen2.5-72B,这引发了关于创新与"套壳"的讨论。

从技术角度看,Kimi-Dev-72B并非从零开始训练的模型。月之暗面在Hugging Face平台上的说明显示,这个模型明确标注了Base model: Qwen/Qwen2.5-72B。官方博客中也提到:以Qwen 2.5-72B为基础模型,团队收集了数百万个GitHub问题单和PR提交作为中期训练数据集。这意味着Kimi-Dev是基于阿里巴巴Qwen团队的72B参数模型进行二次开发的。

在训练方法上,Kimi-Dev的创新点在于采用了大规模强化学习技术。开发团队让模型在Docker环境中自主修复真实代码仓库的问题,只有当完整测试套件通过时才能获得奖励。这种训练方式确保了模型生成的代码不仅正确,而且符合实际开发标准。这种训练方式在代码生成领域属于较新的探索,为模型带来了更贴近实际开发场景的输出。

在软件工程任务基准测试上,Kimi-Dev-72B展现了出色的性能。它在SWE-bench Verified上取得了60.4%的成绩,这是一个专门评估模型解决真实GitHub issues能力的基准测试。相比之下,前一名开源模型的成绩仅为约50%左右,Kimi-Dev实现了显著的提升。这种性能优势在开发者社区引发了广泛讨论,许多人认为这证明了基于优秀基础模型的二次开发具有巨大潜力。

在许可证方面,Kimi-Dev-72B的LICENSE.md文件显示其采用MIT协议发布。但月之暗面也在文档中明确说明:"Kimi-Dev-72B is built with Qwen-2.5-72B. Qwen-2.5-72B is licensed under the Qwen LICENSE AGREEMENT, Copyright (c) Alibaba Cloud. All Rights Reserved.Subject to the Qwen LICENSE AGREEMENT, Kimi-Dev-72B is under MIT license"。

这种"delta权重"发布模式在开源社区中较为常见,即只发布相对于基础模型的增量部分。这种做法既保留了基础模型的版权保护,又能让开发者在开源生态中自由使用改进部分。这种平衡方式在开源项目中具有重要价值,既保障了原作者权益,又促进了技术的传播与创新。

争议的起源是社区对"月之暗面是否获得了使用Qwen-2.5-72B的特殊许可"的质疑。根据Qwen的许可协议体系,虽然较小的模型采用Apache 2.0协议,但72B这个旗舰模型采用的是《通义千问许可协议》(Qwen LICENSE AGREEMENT)。这份协议规定,当产品的月活跃用户(MAU)超过1亿时,需要向阿里申请商业授权。考虑到Kimi作为热门AI助手的用户规模,可能将Kimi-Dev-72B引入其产品,这个限制条款引起了关注。

面对社区询问,Qwen团队负责人林俊旸在X平台上的第一个回复简短而直接:"no we did not give them the permission"(不,我们没有给他们授权)。这个回复立即引发讨论,然而,仅仅一个多小时后,林俊旸发布了第二条推文,改变了事件走向:"nvm this is our legacy issue. for qwen3, all are under apache 2.0 now."(没事了,这是我们的历史遗留问题。对于qwen3,现在所有模型都采用apache 2.0协议了。)

这种许可策略的演进反映了开源生态的发展趋势。Qwen2.5系列采用了复杂的分级许可体系:大部分模型(包括0.5B、1.5B、7B、14B、32B、VL、Omni等)采用Apache 2.0协议,属于完全开源许可,而3B和72B模型采用的是《通义千问许可协议》,包含商业限制条款。这种分级许可策略在开源社区中并不罕见,目的是在推动技术普及的同时保护核心商业利益。

随着技术发展,这种策略可能逐渐显现出局限性。在2025年4月底发布的Qwen3系列中,所有模型都已经采用了更加开放的Apache 2.0协议。Apache 2.0协议具有商业友好、无限制使用、社区驱动等优势,为开发者提供了更大的自由度。这种转变表明,Qwen团队正在积极适应开源生态的发展需求。

从技术角度看,这个案例反映了当前AI创业的现实。根据MosaicML的数据,训练一个达到GPT-3质量的30B参数模型需要约45万美元,而更大规模的模型如70B参数级别,成本会达到数百万美元。对于希望从零开始训练一个70B模型的机构来说,需要准备好数百万美元的基础预算,还需要配备顶尖的AI研究和工程团队,并且要考虑到随着技术发展,未来模型的训练成本可能会进一步攀升。

月之暗面选择Qwen-2.5-72B作为基座并非偶然。根据多项评测,Qwen2.5系列在代码、数学、多语言等方面都达到了业界领先水平。站在这样的基座模型上,月之暗面可以在类似这样的研究项目中,将资源集中在自己的核心优势——强化学习训练方法上。

NebulaGraph GenAI负责人Wey Gu对硅星人表示:"我认为他们(Kimi)的开放权重、透明地分享paper的工作对社区是非常有益处的"。他还指出,Kimi-Dev分发MIT协议的delta权重文件没有问题,"不过模型的消费者是绕不过base model的Qwen license的"。

值得注意的是,尽管Kimi-Dev在SWE-bench上取得了优异成绩,但实际应用中仍有改进空间。有开发者测试发现,模型生成的代码有时需要调试才能运行,对复杂需求的理解也不够完整。这说明即使基于强大的基础模型,要做出真正优秀的垂直应用仍需要大量创新。

这场"套壳"争议最终成为了一个行业发展的缩影。开源策略正在从限制性许可向完全开放转变,这是赢得开发者生态的必然选择。同时,基于优秀基础模型的"二次创新"正在兴起,关键是找到自己的差异化价值。大厂与创业公司不再是简单的竞争关系,而是在开源生态中形成新的协作模式。

随着更多的开源模型采用Apache 2.0协议,类似的许可争议将越来越少。而像Kimi-Dev这样基于开源模型的专项优化案例,或许会越来越多,这正是开源AI生态繁荣发展的标志。