AI芯片算力能带来多少收益?谁能从中分得最大块?
AI算力竞赛的胜负已见分晓,英伟达以近80%的利润率稳坐头把交椅,谷歌、亚马逊、华为紧随其后,而AMD的推理场景却陷入亏损困境。这场由摩根士丹利主导的深度分析,为AI硬件厂商的商业价值提供了精准的经济账本。
AI推理不仅改变了计算方式,更重塑了行业利润格局。从芯片厂商到云服务商,从数据中心到算法模型,整个生态链都在这场技术革命中重新洗牌。这份报告用数据说话,揭示了不同技术路线在商业场景中的真实表现。
谁在AI战场获利?谁在亏损?
摩根士丹利的测算结果清晰地划出了AI硬件厂商的盈利分水岭。英伟达凭借其GB200 NVL72芯片,构建出77.6%的惊人利润率,这背后是其在计算性能、内存带宽和软件生态方面的绝对优势。CUDA生态的深厚积累,让英伟达在AI应用中形成了难以撼动的技术壁垒。
谷歌自研的TPU v6e pod以74.9%的利润率紧追其后,展现出了云厂商在软硬件协同优化上的强大能力。AWS的Trn2 UltraServer和华为昇腾CloudMatrix 384平台分别取得62.5%和47.9%的利润率,证明了不同技术路线在商业场景中的适应性。
然而,AMD的AI平台在推理场景中却遭遇滑铁卢。MI300X和MI355X平台的利润率分别跌至-28.2%和-64.0%。这份报告揭示了AMD在成本控制和效率产出之间的严重失衡。虽然其硬件成本与英伟达不相上下,但token产出效率远低于预期,导致整体盈利能力大幅下滑。
如何量化AI工厂的商业价值?
摩根士丹利首创的"100MW AI工厂模型"为这场算力竞赛提供了标准化评估框架。这套模型以100兆瓦电力消耗为基准,模拟出中等规模数据中心的运行状态。通过计算基建、硬件、运营三大成本维度,构建出完整的TCO(总拥有成本)模型。
在成本核算中,每100MW的基建投入约6.6亿美元,硬件系统成本可达3.67亿至22.73亿美元,运营成本则根据冷却方案和电价差异波动。综合计算后,100MW工厂的年均TCO范围在3.3亿至8.07亿美元之间。
收入预测则基于token产出效率和市场定价。模型以每百万token 0.2美元为基准,结合70%设备利用率,确保收入预测更贴近实际商业场景。这种量化分析方法,让不同技术路线的商业价值变得可比可测。
生态之争将决定未来格局
这份报告揭示的不仅是当前的盈利状况,更是未来技术路线的博弈方向。在非英伟达阵营,"连接标准"的争夺战已经打响。AMD主推的UALink方案强调低延迟对性能的重要性,而博通支持的以太网方案则追求开放性和灵活性。
这种技术路线之争,本质上是生态构建的较量。英伟达凭借NVLink技术建立了强大的生态联盟,其下一代平台Rubin的投产时间表,给竞争对手设定了明确的追赶目标。2026年第二季度的量产计划,意味着英伟达正在用技术路线图巩固其市场领导地位。
对于投资者和企业决策者而言,这份报告提供了重要的参考价值。它不仅揭示了不同技术路线的商业表现,更指出了未来算力投资的关键方向。在AI技术持续演进的背景下,如何选择合适的算力方案,将成为决定企业竞争力的重要因素。
这场由摩根士丹利主导的深度分析,为AI算力竞赛注入了商业理性。它证明了AI推理不仅是技术革命,更是一门可以被精确计算的商业生意。在技术、成本和生态的多重较量中,谁能在商业价值维度胜出,谁就掌握了未来AI发展的主动权。