AGI真的没用武之地吗?2028年到来,风险有多大?

2025-10-13 10:05:47 作者:Vali编辑部

AGI的出现似乎近在咫尺。从最初预计的50年缩短到如今的5年,一些专家甚至预测2026年就能看到雏形。可现实却让人摸不着头脑——AI在ARC测试中连个零分都拿不到,在基础能力上还像个新手。我们是不是太早下定论了?

算力像火箭燃料一样被不断注入,模型堆叠成山。AI的脚步没有停顿,反而越走越快。有人认为AGI还遥不可及,至少要等半个世纪。可眼下,关键节点被提前了。

这条被说得很远的路,如今却走得如此迅猛。

奥特曼最新观点:AGI这个词已经不重要了

十年缩成五年AGI预言大幅提前

正如MIT Technology Review Insights最新分析指出的那样,我们对AGI的预判正在加速。从GPT-3发布时的「50年才能实现」,到如今的「5年内可见雏形」,时间提前了数十年。这种变化让人始料未及。

对AGI未来的预测

Anthropic联合创始人Dario Amodei提出了更实际的表述:「Powerful AI」。这种具备诺奖级智能的模型,能跨文本、语音与物理环境切换,还能自主设定目标并执行推理任务。他判断最早2026年就能出现。

奥特曼认为,具备AGI特征的系统「已经初露端倪」,其潜力可能带来堪比电力与互联网的社会变革。从宏观数据看,预测时间线也在明显前移。多位专家预测,到2028年实现多个AGI里程碑的概率至少为50%。

这条被认为还需「半个世纪」的路,如今正在被重写。

超能力与短板并存AI的八宗缺陷

现在的AI像是个学霸。它能背书、考试,甚至在专业任务中胜出。可一旦离开考场,就仿佛丢了魂。图像识别时会把香蕉认成吐司,导航时可能冲墙上撞;要它接住一杯水、剪断一根线,十有八九会手忙脚乱。

这些不是笑话,而是现实。AGI真正需要的不只是逻辑和语言生成能力,更需要「人类默认技能」。McKinsey曾总结过AGI在模仿人类智能上的8项核心缺陷,它们几乎覆盖了我们与智能体互动的每个维度:

1. 视觉感知:对颜色和图像变化反应迟钝,容易混淆,缺乏真正的视觉一致性;

2. 音频感知:难以处理声音的空间位置、细节特征,无法识别语调和情绪;

3. 精细动作:无法完成复杂的精细动作,比如穿针引线、外科手术;

4. 自然语言处理:只能理解句法,不理解含义,面对语境和暗示经常「跑偏」;

5. 问题解决:只能应对被定义好的问题,面对新任务几乎无从下手;

6. 导航能力:在动态现实中难以自主规划路线,无法适应环境变化;

7. 创造力:无法提出真正的新问题,也无法优化和改写自己的逻辑结构;

8. 社会与情绪理解:看不懂脸上的情绪、听不出语气的变化,更不会真正共情。

强大,但失衡;聪明,却迟钝。

这就是今天的AI——它站在我们面前,却还隔着一层看不见的玻璃。

既要跑得快,还要会协同AI背后的算力战

AGI不是靠一颗更大的芯片叠出来的,它需要一整套进化中的计算体系从硬件到底层软件。从数据中心的能源结构到移动设备的资源调度,层层协同,彼此唤醒。

这场战争,已经悄悄打响。进入深度学习时代后,AI的计算需求增速从21个月翻倍骤降到5.7个月翻倍,模型体积膨胀百倍,训练成本指数上升。一些预测甚至认为,未来某些AGI训练任务的算力消耗可能超过一个国家的GDP。

这不仅是硬件的拉锯战,更是架构的重写。为了适应大规模推理和实时响应的需求,AI系统正全面转向异构计算路径:CPU、GPU、NPU、TPU各司其职,把最合适的算力分配给最合适的任务。

而让这支多芯片协同作战的,是隐藏在系统底层的软件工具和软件框架。它们负责管理、协调和调度任务,帮助开发者在不重写代码的前提下调用不同硬件、跨平台部署,优化性能同时降低能耗。

但即便如此,想靠现在这套算力栈直接堆出AGI,依旧不现实。MIT报告指出,真正的问题不只是算得不够快,而是结构不够对。就像Transformer曾引爆了生成式AI,新的架构可能引发一次认知方式的跳跃。

不是更强,而是更广AGI的最终拼图

通往AGI的路径,从来就不只一条。但越来越多的证据开始指向同一个结论:AGI可能不是某一个技术点的突破,而是一整套异构系统的协同崛起。

它需要更灵活的硬件结构——用对芯片,做对事,CPU、GPU、TPU、NPU各司其职。它需要更聪明的调度框架,让这些异构芯片动态配合,不浪费一点算力。它需要新的架构,像Transformer之于GPT,引发一次认知方式的跳跃。

它甚至需要重新建构「智能」本身。也许通向AGI的,不是某种「更强模型」的出现,而是一次技术的集体转向。

正如MIT报告中所说:「我们在追寻更聪明机器的过程中,可能也会第一次真正理解聪明意味着什么」