OpenAI与微软为何爆发争端?这个词汇背后究竟藏着什么价值?

2025-10-16 09:50:25 作者:Vali编辑部

最近Grok 4的发布引爆了行业讨论,有人直呼它贵得离谱还不好用,也有人觉得这玩意儿简直是AGI的里程碑。双方阵营的争论愈演愈烈,连微软和OpenAI都开始在定义权上较劲。

这场争执的导火索是AGI的定义分歧。早在2023年,微软和OpenAI就签了价值130亿美元的协议,约定AGI是能创造1000亿美元利润的自主系统。可一年后OpenAI突然改口,把AGI定义为在最具经济价值的工作上表现优于人类的高度自主系统,还宣称自己将率先实现AGI。

这种定义权的争夺背后藏着商业逻辑。微软之所以跳脚,不只是因为花了这么多钱,更因为合同里有个关键条款:当OpenAI系统达到AGI水平时,这家初创公司可以限制微软对其技术的访问。微软现在不仅要阻止这种情况,还得重新定义AGI的边界。

AGI到底是什么?这个问题在技术界始终没有定论。有人说是多模态能力的融合,有人说是持续学习与自我优化,也有人认为要和人类智力等价。没人能给出确切答案,甚至连问题本身都开始模糊。

为了解决这个难题,微软尝试提出一个看似客观的判断标准:如果AI能创造1000亿美元利润,就可以认定为AGI。这个标准乍一听像是玩笑,但仔细想想并不荒谬。毕竟AI赛道本身就是大热门,热钱不断涌入,「AGI」这个标签比「AI」更有吸引力。

在商业竞争中,定义权就是话语权。谁掌握AGI的定义,谁就能掌握资金、估值、政策资源。就像在商业策划案上写上「AGI」,就能打开大门、获得投资。这种现象背后是权力结构的体现,不是单纯的技术谈判。

OpenAI与微软的业务关系,图片来自:The Information

把模糊术语绑定到经济收益上,对微软来说是双刃剑。一方面能进一步兜售未来想象,另一方面也能在巨头竞争中获得话语资源。Sam Altman的智慧在于,他意识到AGI无法被定义,正是它好用的原因。

AGI是一种典型的「模糊术语」——你越无法精确说明它是什么,它就越容易在不同情境下被灵活调用。无论是估值、谈判还是兜售未来,这种模糊性都成了利器。这也是为什么微软和OpenAI会在AGI定义上出现张力,不是因为谁更关心技术真相,而是因为谁掌握定义权,谁就能改写合作关系、重组利益分配。

数字一定更客观吗?

如果技术都不足以定义AGI,那有没有其他方法?此时数据建模就派上用场了。

英国纽卡斯特大学的研究团队尝试用数学建模的方式,推算AGI对社会的影响临界点。他们基于AI发展对不同行业劳动力替代率、资本积累速度和平台集中度的数据建模,试图找出一个拐点:在哪个阶段之后,AI技术将不可逆地引发社会结构的断裂、重组。

研究里使用了多种不同的生产函数,构建了一个「Power shift」模型,模拟AGI代替人力所带来的影响。用量化数据揭示AGI替代效应与劳动收益崩溃的临界阈值,这和「年营收1000亿美元即是AGI」的判断方式,属于同一种思维范式:如果你无法理论性地定义它,那就给它设一个数字,数字总是相对「客观的」。

当然,这种建模方法也有局限。比如缺少行业数据、历史真实案例的支撑,使得推演更像是一种「预言」,而缺乏一定的解释效力。另外,行业内部竞争带来的算力价格变化、运营成本,甚至是监管影响,都很难体现出来。

因此论文的结论也比较谨慎,它不是说「AGI实现了」,而是指出「一旦超过这个点,社会将进入结构性变革阶段」。

不过,建模这种思路在科技界并不陌生。与其在哲学上争辩「AI是否具有意识」、「世界模型是不是更高级的范式」,不如在财务模型上设立一个目标函数。

当估值模型跑通、数据指标达标,AGI就可以「实现」了——不是因为它真的实现了,而是因为它具备了被宣布为现实的全部前提。

这或许是为什么研究人员将这种趋势称为「技术封建主义」:真正统治世界的,不是技术,而是对技术的定义权。平台不需要创造新的文明,只需要控制对新文明的描述方式。

一个概念的定义越含糊,就越容易根据不同的场景来调整。虽然合同已经签好了,但是「AGI」的定义变化了,资金的使用也可以随之变化,享受的待遇也可以变化,连合作结构也可以变化。

这也是为什么我们需要警惕——AGI可能永远无法精确定义,但它已被嵌入制度,成为真实存在的行动基础。它的模糊性没有削弱它的效力,反而增强了它的「多功能」:既可作为投资叙事,也可作为政策筹码,还可作为控制合约的开关。

当某一天你看到一款AI产品上线,宣称「AGI已至」,不妨先别问技术细节,而是问一句:这是谁的AGI?又是为谁而宣布?