
全文概览
在2026年国际消费电子展上,Nvidia首席执行官黄仁勋再次颠覆了AI工厂的经济规律。当行业普遍认为Nvidia的护城河正在缩小时,这家公司却用实际行动证明:真正的护城河不是单颗芯片,而是系统级的协同设计与规模经济。
从每年五倍的性能提升、十倍的吞吐量改进,到每个token成本下降一个数量级——这些数字背后代表着什么?为什么竞争对手即使拥有出色的架构理念,也难以在市场上形成有效竞争?当竞争单位从芯片转移到系统、机架乃至token经济时,整个行业的生存法则正在被重新书写。
本文将深入剖析Nvidia如何通过极限协同设计构建难以逾越的竞争优势,并探讨这一范式转变对英特尔、AMD、Google TPU等竞争者的深远影响。
阅读收获
👉 划线高亮 观点批注
深度分析 作者:David Vellante和David Floyer[1]

在2026年国际消费电子展(CES 2026)上,Nvidia公司首席执行官黄仁勋再次重塑了人工智能工厂的经济规律。
特别是,尽管近期行业内有声音认为Nvidia的护城河正在缩小,但我们的评估是,该公司进一步巩固了其作为下一代计算硬件和软件标准的地位。正如英特尔和微软主导了摩尔定律时代一样,我们相信Nvidia将在可预见的未来成为技术创新的核心驱动力。(David Vellante 对Nvidia的增长有着坚定的乐观心理)
重要的是,前一个时代见证了每两年性能翻倍。而今天,Nvidia正在推动每年五倍的性能提升、十倍的吞吐量提升,并通过杰文斯悖论[2]将token需求提升十五倍。
归根结底,生态参与者和客户必须适应这一新范式,否则将面临与西西弗斯相似的命运——那个永远推着石头上山的悲剧人物。
在本次深度分析中,我们基于第300期节目[3]的工作进行更新。首先,我们从历史视角出发,审视个人电脑时代挑战英特尔的公司的命运,以及少数公司得以生存并最终成功的特征。

然后,我们转向黄仁勋在CES上的公告,解释这些公告为何从根本上改变了AI工厂的经济规律。在我们看来,这些发展对于理解大规模AI基础设施在性能、吞吐量和利用率方面的需求动态演变至关重要。
最后,我们审视了对整个生态系统的意义。这对英特尔、博通、超威半导体(AMD)和其他硅基专业公司等竞争对手意味着什么?超大规模云服务商、领先的AI研究实验室、原始设备制造商和企业客户应如何考虑AI战略、资本配置和支出优先级?
让我们从历史视角开始,回顾1980年代和1990年代挑战英特尔的公司。IBM早期是主导力量,但它远非唯一试图在芯片层面竞争的公司。当时涌现了大量RISC供应商和替代架构——包括Sun Microsystems——其中许多如今已成为计算史上的脚注。

上面的幻灯片突出了这一现实。绿色显示的公司是成功穿过"针眼"的。其余的则没有。
核心原因归结为一点:英特尔以可预测的、持续的性能和性价比改进提供了不懈的一致性,大约每两年翻一番。(对于生态来说,真正有效的不是技术上的极致,而是可预测,预测的本质是统筹和规划,协同生态一起前进,才能把蛋糕做大)英特尔从未放松油门。它将摩尔定律作为运营纪律和技术路线图来执行。因此,竞争对手根本无法跟上。即使是行业领导者的优秀架构理念,也被英特尔的规模、制造优势、批量经济效应和节奏所淹没。
值得注意的一点是,苹果虽然在当时并不总是被视为直接的芯片竞争对手,但最终通过控制其系统架构获胜,后来又通过垂直整合其硅战略取得成功。
更广泛的收获是我们对本次分析其余部分假设的基础。具体来说,在由学习曲线、规模和复利经济驱动的平台市场中,统治地位不仅仅在于拥有出色的产品。成功需要在长时间内保持持续的势头,而竞争对手则在试图追赶中耗尽精力。
让我们深入研究那些在英特尔主导的PC时代真正存活下来的公司。以下列表在我们看来具有启发性。AMD、Acorn(原始ARM)、苹果、台积电、英特和Nvidia。每家公司都走了不同的道路,但它们有一个共同的底层特征——规模。

AMD的存活直接追溯到IBM的原始PC战略。IBM强制要求第二供应商,迫使英特尔共享其指令集。AMD成为第二供应商,没有其他公司获得类似的访问权。这种结构性优势持续了数十年,使AMD在其他x86挑战者消失后很长时间内保持生存。
ARM、台积电和苹果从根本上改变了当时盛行的信念——由AMD首席执行官杰里·桑德斯提出——"真正的男人拥有晶圆厂"。这些公司证明了设计与制造分离可以成为制胜策略。苹果带来了大规模的系统级规模(移动互联网的红利)。台积电借助这种规模降低成本,最终实现了我们估计比英特尔低约30%[4]的制造经济性。Nvidia遵循了类似的无晶圆厂路径,将架构领导力与加速的需求相结合。英特尔本身是原始的规模受益者,得益于Wintel组合创造的良性循环。这种规模使英特尔能够比RISC竞争对手更持久,并主导PC时代。但在当前周期中,英特尔在基于ARM的设计、Nvidia和台积电面前失去了阵地——每家公司现在都处于更陡峭的学习曲线上。
关键结论是规模,规模是统治地位的基础。不仅仅是单一狭窄领域的规模,而是跨相邻和协同市场的规模,这些市场滋养着相同的学习曲线。AMD的规模最初是由IBM PC部门强制要求英特尔第二供应商造成的。苹果的规模是由消费者驱动的。台积电的规模是制造主导的。Nvidia的规模在这个时代正以比它们任何一家都快的速度加速。
在我们看来,Nvidia有望成为AI时代的主导规模领导者,而且优势巨大。正如历史所表明的,一旦规模领导地位在规模上建立,竞争对手就很难追赶,除非有其他因素影响结果(例如自伤或领导者无法控制的事情,如地缘政治变化)。
Nvidia的CES公告[5]具有前瞻性,主要聚焦于新兴的机器人市场。然而,在本分析中,我们将重点放在Nvidia的核心系统业务上。在我们看来,Nvidia在这方面宣布的内容甚至超出了我们乐观的预期。正如我们经常强调的,Nvidia之所以卓越,不仅是因为单颗芯片,而是因为其交付的范围。具体来说,黄仁勋以一个基于六芯片的完整系统重新设计[6]开始了他的主题演讲,该系统围绕他一直称之为极限协同设计的理念构建。

上图显示了Nvidia的下一代创新,包括Vera Rubin,以天文学家Vera Rubin命名,她对星系旋转曲线的研究导致了暗物质的发现。Vera是CPU,Rubin是GPU。但只关注这两个组件会错过更广泛的故事。Nvidia同时推进了系统中每个主要硅元素的进步,包括基于InfiniBand的NVLink、ConnectX网卡和用于以太网的Spectrum-X、BlueField DPU以及采用共封装光学器件的Spectrum-X以太网。
几年前,主流叙事认为以太网会削弱Nvidia的专有网络地位(其基础是通过Covid时代的Mellanox收购获得的InfiniBand)。Nvidia没有气馁,而是通过构建Spectrum-X来应对。今天,黄仁勋声称Nvidia是按收入计算全球最大的网络公司,这一说法似乎可信。引人注目的不是产品线本身,而是Nvidia执行的速度和完整性。
更深层的在于Nvidia如何定义协同设计。虽然该公司与OpenAI、Google的Gemini和xAI等客户密切合作,但协同设计首先在Nvidia自己的产品组合内部开始。这一代代表了整台机器的从头重新设计。每个主要芯片都是协调增强的,而不是孤立进行的。
性能指标令人惊叹。GPU提供大约五倍的性能提升。CPU也有显著提升。但同样重要的是网络方面的进步——无论是机架内还是跨机架。每个子系统都是一起重新设计的,以最大化端到端吞吐量,而不是孤立地优化任何单个组件。
结果是乘数效应,而非加法效应。虽然单个元素显示约五倍的性能提升,但系统级吞吐量改进接近一个数量级。这就是极限协同设计的回报——对齐计算、网络、内存和软件,最大限度地减少限制整体系统的单一瓶颈。
在我们看来,这标志着AI基础设施构建方式的决定性转变。长期以来我们一直承认Nvidia不再运输芯片。它正在交付紧密集成的系统,这些系统经过工程设计,以在AI工厂所需的规模上最大化吞吐量、利用率和经济效率。这一区别是深刻的,因为竞争对手试图匹配的不仅是组件性能,还有当规模、架构和系统级设计相互强化时出现的学习曲线优势。虽然黄仁勋指出Nvidia是一个完整的系统玩家,但这一点往往被投资者和市场观察者忽视。这一公告进一步强调了这种设计理念的重要性,并使Nvidia与任何竞争对手进一步差异化。
从Nvidia的公告中变得更清晰的一个关键点是,芯片不是正确的测量单位。系统才是。更准确地说,是机架——最终是每个机架的token输出——定义了性能、经济性和价值。

每个机架集成了72个GPU以及CPU和高速互连,将系统绑定在一起。计算密度很重要,但以最小抖动和最大一致性移动数据的能力同样重要——在机架内、跨机架以及跨整个框架。Nvidia已大幅将内存容量提升到TB级别,使GPU能够紧密协调运行而不会停滞。结果是实现大规模的一致执行。
这些系统旨在向上扩展、向外扩展和跨规模扩展。当以完整工厂规模部署时,它们不是运行数十或数百个GPU,而是运行数十万个——最终达到一百万个GPU协同工作。随着规模增加,吞吐量也增加。随着吞吐量增加,生成的token的经济价值加速。
这就是数字复合创造飞轮效应的地方。大约五倍的组件级性能提升与大约十倍的系统级吞吐量结合在一起。我们相信,这推动了估计15倍的需求增长,因为每个token成本的降低解锁了全新的工作量类别。这是三重增强的摩尔定律——这就是为什么年度价值创造如此急剧上升。
杰文斯悖论在这里适用。随着token生成效率的提高,总消耗增加。正如我们所强调的,价值从静态的芯片性能衡量转向动态的系统利用率和输出经济衡量。token生成得越快,大规模部署AI在经济上就越可行,需求就扩展得越多。
网络在这个等式中处于核心地位。Nvidia对Mellanox的长期投资——曾被许多人视为对一项垂死技术的赌注——现在看来是有先见之明的。InfiniBand持续快速增长,即使以太网需求也在加速。网络远非瓶颈,已成为系统级性能的核心推动力。
关键结论是,AI基础设施经济现在在机架和工厂层面定义,而不是在芯片层面。Nvidia的优势在于设计计算、内存、网络和软件作为单一、紧密协调的机器运行的系统。这就是吞吐量最大化、token经济转型以及下一阶段AI工厂价值正在被创造的地方。
黄仁勋在一张幻灯片上呈现了三个关键指标,以显示训练吞吐量、AI工厂token吞吐量和token成本。它们共同讲述了AI基础设施经济走向何方的故事。为清晰起见,我们将其分为两部分,如下图所示:左侧是训练,右侧是工厂和推理吞吐量。

训练图表显示了下一代超大型模型的训练时间(以月计)。结论令人大开眼界。Rubin平台使用大约四分之一的GPU达到与Blackwell相同的训练吞吐量。正如我们之前指出的,这不仅仅是关于更快的芯片。它反映了规模上效率的巨大提升——减少同步开销、更少的内存停顿、更低的结构争用以及更短的训练周期。
影响值得注意。每次模型运行所需的资本大幅下降。客户每年可以进行更多实验并更快迭代。训练速度本身成为竞争优势,而不仅仅是成本考虑。在我们看来,这是当前AI竞赛中最被低估的动态之一。
右侧的工厂吞吐量图表讲述了同样重要的故事。随着工作负载从批量推理转向交互式、代理驱动的用例,吞吐量特性发生显著变化。每个查询的token增加,延迟敏感性上升。在这些条件下,Blackwell的吞吐量如所示崩溃。与此同时,Rubin在维持性能方面效果更好,并在工厂层面每月提供大约十倍更多的token。
这是AI工厂的未来工作负载配置文件——实时、交互式、代理性和高度可变——而不是静态批量推理。Rubin是为这个时刻设计的。价值不仅在于峰值性能,更在于现实条件下持续的吞吐量。
综合来看,这些图表解释了Nvidia的优势为何不断扩大。训练和推理在经济重要性上正在趋同。更快的训练降低了资本密集度并加速了创新。更高的工厂吞吐量降低了token成本,同时扩大了需求。这种组合重置了对性能、效率和可扩展性的期望。
在我们看来,许多观察者继续低估Nvidia移动的速度和它正在创造的差距。与替代加速器的比较——无论是Google TPU、AWS Trainium还是其他——都错过了Nvidia正在展示的系统级现实。新标准不是原始计算,而是训练速度、持续工厂吞吐量和规模上的token经济。在这些方面,Nvidia正在树立标杆。
我们要深入探讨的最后一个环节是成本。而这正是影响变得压倒性的地方。在我们看来,这是最重要的。
更高吞吐量和系统级效率的结合使每个token的成本下降约一个数量级。黄仁勋在主题演讲中表示,这些系统可能消耗更多电力,但它们完成的工作要多得多。当吞吐量上升十倍而每个token的成本降至十分之一时,AI工厂的经济状况从根本上重置了。

引人注目的是速度。这不是与摩尔定律相关的18至24个月周期。这些增益正在12个月周期内实现。摩尔定律几十年来改变了计算行业,提升了硅、软件、存储、基础设施和应用程序的生产力。我们现在看到的甚至是一条更激进的曲线——数量级的改进压缩到一年之内。
这一进步背后有真正的压力。对先进芯片、内存和互连的需求正在推高组件成本。Nvidia在整个供应链中获得了优质的访问权。但从AI工厂运营商的角度来看,数学主导一切。如果每个token的成本下降而吞吐量急剧上升,工厂的盈利能力就会大幅提升。
在一个电力受限的世界中,这一点尤为关键,正如我们去年八月探索"新杰文斯定律"[7]时所述。超大规模云服务商和新兴云服务商同样受到可用电力的限制,而不仅仅是资本。在这些约束下,黄仁勋半开玩笑的"定律"适用——买更多,赚更多;或者买更多,节省更多。从相同基础设施中提取显著更多工作的能力——或用更少的资源实现相同输出——直接转化为财务运营杠杆。
黄仁勋引用的例子使这一点具体化。在一个500吉瓦规模的500亿美元数据中心中,提高10%的利用率会产生50亿美元的巨大收益,直接流向损益表。这就是为什么在这种情况下,网络在经济上变得"免费"。增量成本被它所实现的利用率收益所掩盖。
这最终就是Nvidia的地位如此强大的原因。优势不仅是技术上的——更是经济上的。Nvidia正处在陡峭的学习曲线上,由规模、系统级协同设计和加速的效率增益所强化。当每个token以这种速度崩溃时,需求扩大,利用率上升,经济效应复合。这种动态定义了这一时代的领导地位。

最后,我们将把CES公告转化为跨多个类别参与者的竞争影响,包括同时是客户的供应商。共同的主题是竞争单位已从芯片转移到系统、机架,最终是token经济。这种转变改变了现有者的生存经济、专业人士的机会以及客户策略的紧迫性。
在我们看来,英特尔的历史垄断和领导地位实际上已经结束。更有趣的问题是,英特尔能否在AI工厂世界中保持有意义的CPU供应商地位——而Nvidia/英特尔互操作性[8]举措在这方面值得注意。
历史背景是相关的。Nvidia自1990年代后期就一直希望更深入地访问x86,但从未被允许。新安排改变了结构,它使英特尔CPU和Nvidia GPU能够在同一框架内运行。它不是完全统一的架构,但对于大多数工作已经足够,它为英特尔CPU在这些系统中保持存在创造了一条可行的路径。
它还让英特尔在基于CUDA的环境中获得了有意义的访问级别——虽然不是"完全访问",但仍然具有影响力。净效果应该改善这些部署中的英特尔连接性,让英特尔在这个周期中保持在CPU游戏中,并增加可向市场提供的Nvidia系统数量。换句话说,它可以作为从旧到新的可行桥梁,这对客户是有益的。(在AI工厂的Tokens叙事中,未来系统架构设计中的CPU将逐渐过度到ARM架构,这是第一性原理决定的,而x86和GPU的互访通路,是巨头们在为PC市场续命,是在为Wintel时代的软件支付账单)
我们确实想指出任何乐观Nvidia情景的一个关键风险——台湾地缘政治中断。如果中国接管台湾,可能有多种潜在结果——从与新杠杆的连续性,到如果该杠杆被拉动更具破坏性的情景。任何一种都会影响围绕Nvidia的情绪,并可能增加英特尔的感知战略价值。但残酷的现实是,英特尔仍需弥补与台积电的制造和执行差距,这不是任何公司能一夜之间跨越的。
AMD在x86上相对于英特尔执行得很好。但竞争目标已经转移。x86已经成熟,其曲线已经平坦,这使得AMD崛起的时机成熟,也使得超大规模云服务商追求AWS的Graviton等替代方案。AMD现在正在应对一个非常不同的对手——一个在陡峭学习曲线上移动、具有复合系统级优势的领导者。
在我们看来,核心问题是速度。AMD将难以以足够快的速度移动来缩小由12个月周期和系统级吞吐量经济定义的差距。一个实际含义是AMD应该追求类似于英特尔的交易结构——确保一方的规模——同时积极聚焦于边缘。数据中心CPU收入对英特尔和AMD来说是有意义的,但在那里扩大规模将很困难,而且存在真正下滑的风险。边缘仍然广阔开放,在我们看来,这才是应该聚焦的地方。
与此同时,认识到Nvidia也在瞄准边缘是很重要的——自动驾驶汽车库被突出展示,机器人被放在CES舞台上,这是公司的主要焦点。边缘是开放的,但不会没有竞争。
有足够的空间让专业人士避免与Nvidia直接、正面的竞争。AI工厂建设预计是巨大的[9]——大到使得利基和邻接策略仍然可以创造有意义的业务,特别是在工厂和边缘。
我们引用的两个例子:
但战略要点是延迟是推理经济中一个真正的杠杆,在延迟上获胜的专业人士可能很重要——特别是在边缘。
博通最好理解为超大规模云服务商、OEM生态系统、移动玩家和几乎所有形式的连接的关键供应商。博通有一个定制硅引擎,管理与晶圆厂和制造合作伙伴的后端执行。其业务多元化且结构重要,我们绝不认为它会消失。博通拥有深厚的工程人才和多元化的业务以及卓越的领导力。
更具争议的问题是超大规模云服务商是否应继续投资于TPU、Trainium和其他ASIC策略等替代加速器——作为与Nvidia竞争的长期路径。
Google在TPU方面有深厚的历史和真正的技术可信度。但这里的论点是,现在这是不同的商业环境。Google必须保护搜索质量并加速Gemini。如果内部平台选择限制了对CUDA和最佳可用硬件/软件改进的开发者访问,风险是Gemini的开发速度会放缓。如果模型迭代需要多倍时间,那在战略上就会变得危险。
我们的观点是,TPU在这方面已经达到了天花板——不是因为它们不能改进,而是因为它们无法匹配Nvidia的规模驱动学习曲线和系统级经济,特别是随着网络成为规模限制因素。(首次明确指出TPU发展面临瓶颈)
一个相关的观点,由Gavin Baker使用简化的经济例子提出:如果Google的TPU项目代表300亿美元的业务,并且它将大量价值发送给博通(约150亿美元),可能会有人主张垂直整合。反论点是,即使财务上可能,如果它减慢Gemini的迭代速度,在战略上也可能是不理性的。核心论点是Google应该优先考虑模型速度而非加速器自给自足。
David 文章的出发点是系统级硬件设计,似乎忽略了Wintel联盟中排在前面的Windows(软件应用),不可否认Nvidia 在硬件上已经臻于极限,但不要忘记,历史不是跳跃发展的,软件应用/数据的接力棒如果没有交到新玩家(OpenAI?)手中,那么完全可能再次重演Wintel的商业模式- Google 整合硬件资源
同样的逻辑延伸到Trainium。AWS的Graviton策略之所以有效,是因为它针对的是成熟、扁平化的x86曲线。这不是今天加速器的环境。速度太快,曲线太陡峭,系统复杂性太高。
AWS、Google甚至Microsoft会继续资助Nvidia的替代方案吗?可能会,因为更成本有效的平台会出现用例。但在我们看来,超大规模云服务商真正战略优势在其他地方,特别是当它们面临来自新兴云服务商的日益激烈竞争时。
我们将四个前沿实验室定位为主要竞争者:OpenAI、Anthropic、Google和xAI的Grok,Meta Platforms被视为第二梯队(附带说明:低估扎克伯格是不明智的)。
尽管围绕OpenAI的负面叙事持续存在——特别是关于融资结构和承诺——我们的观点是悲观可能是错误的。推理如下:
简而言之,我们看到OpenAI最有可能成为中心的整体赢家,Anthropic作为第二玩家,Grok非常有可能在边缘表现出色。Elon也可以在边缘强烈竞争,同时他放弃了构建自己数据中心芯片的想法。
一个额外的配置细微差别是与Nvidia对齐的实验室(OpenAI和X.ai)可能比那些追求更紧密耦合替代加速器策略的实验室有更好的路径获得"最新和最伟大"的配置。
对于戴尔、慧普、联想和超微等OEM来说,机会主要是执行性的。换句话说,获取最新平台,包装它们,交付它们,并可靠地运行它们而不出现热或集成故障。需求巨大,供应受限,这不是零和游戏。目前他们都可以做得很好。
关键点是,只要市场保持供应受限,任何可信的东西都会被消耗。这一现实可以证明生态系统中的多个硅供应商是合理的——即使长期竞争曲线仍然有利于Nvidia。
在客户方面,我们挑战一个被广泛重复的叙事——"在为AI支付成本之前整理好你的数据屋"。这里的观点是,这个顺序可能是错误的。
我们的建模表明,在多年期间(例如五年),更早进入AI学习曲线可以产生比延迟直到数据"干净"更多得多的价值。即使数据不完美,组织也可以选择一个数据集,应用AI来改进它,并复合学习,而不是等待。
我们强调了另外两个含义:
Cite
MIPS 是 Million Instructions Per Second(百万条指令每秒) 的缩写,这是一个传统的计算机性能衡量指标。
在这个句子中,作者用 "MIPS" 来象征传统以计算能力为核心的IT支出模式——即企业购买的是CPU的处理能力、计算资源。
而与之对比的 "token" 则代表AI时代的价值单位——企业购买的是智能(intelligence)本身,即通过API访问的AI能力。
我们的战略建议是优化速度和学习。将token容量放在数据附近(延迟很重要),使用token改善访问和数据质量,然后通过AI项目快速迭代——一个项目,学习,然后下一个,建立飞轮。重点应该从价值开始,使用智能改进系统,而不是花数年时间试图先完善数据。
在我们看来,本分析的决定性教训是AI不再是单芯片、模型甚至供应商的竞赛——它是学习曲线、系统和经济的竞赛。历史表明,在平台转型中,领导地位归于那些实现规模、维持执行并将效率收益转化为扩展需求的人。这种动态塑造了PC时代,它正在以更快的速度在AI工厂时代重演。
使这个周期不同的是时间的压缩。曾经需要数十年展开的改进现在正在12个月间隔内发生,重置成本结构并迫使战略决策比大多数组织习惯的更快。影响跨越硅提供商、超大规模云服务商、AI实验室、OEM和企业。
对于客户来说,价值将归于那些更早进入AI学习曲线、聚焦吞吐量和token经济、并通过快速迭代建立动力而非等待完美条件的人。对于供应商来说,生存将更少依赖于聪明的替代方案,而更多取决于他们是否能保持在最陡峭的曲线上而不让自己减速。
这一转型不会是线性的,也不会均匀分布。但方向在我们看来是清晰的。AI工厂正在成为下一个计算时代的经济引擎,赢家将是那些将AI不是作为功能或实验,而是作为业务核心运营模式的人。
延伸思考
这次分享的内容就到这里了,或许以下几个问题,能够启发你更多的思考,欢迎留言,说说你的想法~
原文标题:Nvidia resets the economics of AI factories, again[10]
#CubeInsight
---【本文完】---
👇阅读原文,搜索🔍更多历史文章。