全文概览
人工智能正以前所未有的速度重塑技术格局,而数据中心作为算力的核心载体,正经历一场价值万亿美元的颠覆性变革。NVIDIA凭借其GPU加速计算的先发优势,构建了从芯片到软件的端到端生态系统,成为这场“并行计算(EPP)”革命的领航者。
传统数据中心依赖的通用CPU架构已难以满足AI训练、实时推理和大规模数据处理的需求。NVIDIA通过整合高性能GPU、高速网络(如InfiniBand)、CUDA软件栈及合作伙伴生态,重新定义了计算范式。从谷歌、Meta到超大规模云服务商,全球科技巨头正加速向并行计算架构迁移。
据预测,到2035年,数据中心市场将从传统通用计算转向以GPU和专用加速器为核心的分布式架构,市场规模将突破1.7万亿美元。这场变革不仅关乎技术迭代,更是一场关于算力效率、成本控制与生态话语权的全球竞赛。
阅读收获
正见证一个全新计算时代的崛起。未来十年内,一个价值超过万亿美元的数据中心业务即将迎来转型,其核心驱动力是所谓的并行处理(EPP)——或如某些人所称,加速计算。尽管人工智能是主要推手,但其影响已波及整个技术栈。
英伟达(Nvidia)处于这场变革的最前沿,正打造一个整合硬件、软件、系统工程及庞大生态系统的端到端平台。预计,英伟达将拥有10至20年的增长期来推动这一转型,但当前的市场力量远不止一家企业之力。这一新范式的核心在于从底层重新构想计算方式:从芯片层级到数据中心设备,从大规模分布式计算到数据与应用栈,乃至边缘端新兴的机器人技术。
在这篇深度分析中,将探讨并行计算如何重塑科技格局,主要半导体厂商的表现,英伟达面临的竞争,其护城河的深度,以及其软件栈如何巩固其领导地位。还将结合ETR的数据,分析CES上新近出现的所谓“AI个人电脑”动态。最后,将展望数据中心市场到2035年可能达到1.7万亿美元的规模,并讨论这一积极前景中的上行潜力与潜在风险。
的研究表明,技术堆栈的每一层——从计算、存储、网络到软件层——都将为AI驱动的工作负载和极端并行性进行重新架构。相信,从通用(x86)CPU向分布式GPU集群和专用加速器的转变,比许多人的预期来得更快。以下是对数据中心技术堆栈各层级的简要评估,以及并行计算(EPP)带来的影响。
三十多年来,x86架构主导着计算领域。如今,通用处理器正让位于专用加速器。图形处理器(GPU)是这一变革的核心。大型语言模型、自然语言处理、高级分析和实时推理等AI工作负载需要海量并行计算能力。
尽管存储常被忽视于AI讨论,但数据是驱动神经网络的燃料。坚信AI需要先进高性能存储方案:
十年前,随着移动和云计算兴起,网络流量从南北向转向东西向。AI驱动的工作负载如今在数据中心内外引发海量东西向与南北向流量。在高性能计算领域,InfiniBand曾是超低延迟互联的首选。如今,观察到这一趋势正渗透至超大规模数据中心,高性能以太网有望成为主导的开放网络标准:
加速计算对操作系统、中间件、库、编译器及应用框架提出严苛要求。这些组件需优化以充分利用GPU资源。随着开发者构建更复杂应用(部分融合实时分析与历史数据),系统级软件必须在前所未有的层级管理并发性。操作系统、中间件、工具、库及编译器正快速演进,以支持超大规模并行工作负载并实现GPU感知(即支持GPU的操作系统)。
数据是AI的燃料,数据栈正被注入智能。观察到数据层正从历史分析系统转型为实时引擎,构建组织的实时数字孪生——涵盖人员、场所、实体及流程。为实现这一愿景,基于知识图谱的数据统一、元数据仓库、代理控制框架、统一治理以及连接操作与分析系统的接口将相继出现。
智能应用正整合并协调数据。这些应用越来越多地能够实时访问业务逻辑和流程知识。单一代理系统正演进为多代理架构,具备从人类推理轨迹中学习的能力。应用程序逐步理解人类语言(NLP),注入智能(即“无处不在的AI”),并支持工作流自动化与新型商业成果的创造。应用程序正成为物理世界的延伸,几乎所有行业均可通过实时数字孪生技术重塑业务。
核心洞察:并行计算要求全面重构技术栈——计算、存储、网络,尤其是操作系统层。GPU及其他加速器已成为架构设计的核心。
上述图表展示了主要半导体厂商过去五年的股价表现,其中“AI区域”从2022年末开始标注——大致与ChatGPT引发的初期热潮同期。在此时间节点之前,许多人对大规模GPU加速AI能否成为如此强劲的商业驱动力持怀疑态度。
认为市场已认识到半导体是未来AI能力的基石,因此给予能捕获算力需求增长的公司以溢价估值。今年,以英伟达、博通、超威为首的“赢家”表现强劲,而以英特尔为代表的“输家”则明显落后。
英伟达65%的运营利润率吸引了大量投资者和竞争对手涌入AI芯片市场。无论是传统厂商还是新进入者,均采取了激进的应对策略。然而,鉴于市场潜力巨大且英伟达领先优势显著,判断短期内竞争不会对其造成负面影响。不过,仍观察到各挑战者针对英伟达的不同竞争策略,各具市场切入点。
并列这两大行业领导者,原因如下:1)博通为谷歌的定制芯片(如张量处理单元TPU)提供技术支持;2)认为TPU v4在人工智能领域极具竞争力。博通在串行器/解串器(SerDes)、光学技术和网络领域的知识产权处于行业领先地位,与谷歌联手在看来是相对于英伟达而言最可行的技术替代方案。
值得注意的是,博通与Meta长期合作,为其AI芯片提供技术支持。谷歌和Meta已证明,AI在消费者广告领域的投资回报率(ROI)非常可观。尽管许多企业仍在AI投资回报上挣扎,这两家公司却展现了惊人的资本投入回报率(ROIC)。两家公司都在推动以太网作为网络标准。博通是该领域的坚定支持者,并在超以太网联盟(UEC)中发挥主导作用。此外,博通是除英伟达外唯一在跨计算单元(XPUs)及XPU集群内的网络领域拥有经验证的专业知识的公司,使其成为AI芯片领域极具竞争力的对手。
AMD的数据中心战略依赖于推出具有竞争力的AI加速器,延续其在x86架构上的成功经验。尽管其GPU在游戏和高性能计算(HPC)领域占据重要地位,但AI软件生态系统(以CUDA为中心)仍是主要障碍。
曾无可争议的处理器领导者,英特尔在加速计算转型中遭遇挫折。持续认为,其自建晶圆厂的巨额资本需求严重拖累了发展。
亚马逊的定制芯片策略在Graviton CPU实例中取得成功。其收购Annapurna Labs是企业科技史上最具远见的投资之一,却常被低估。如今,AWS与Marvell合作,正以Graviton策略为蓝本,将类似模式应用于GPU领域,推出Trainium(训练)和Inferentia(推理)。
Dylan Patel对亚马逊GPU的评价概括了的观点。他在BG2播客最新一期中提到:
亚马逊在re:Invent大会上展示的Trainium 2,若眯眼细看,这就像亚马逊的基础版TPU。它性能尚可,但价格低廉;更重要的是,其每美元的HBM容量和带宽在同类芯片中首屈一指。因此,某些应用场景下确实值得采用。这标志着重大转变:或许无法设计得比英伟达更好,但能通过封装更多内存实现突破。 **Dylan Patel谈AWS Trainium**[1]
预计AWS的方案将主打成本优化,并在其生态系统中为训练和推理提供替代GPU路径。尽管开发者可能更倾向英伟达平台的熟悉性和性能,AWS仍会为客户提供尽可能多的选择,并凭借其封闭市场获得合理份额。其渗透率可能不及Graviton对x86的冲击,但足以证明投资合理性。目前尚未对Trainium进行预测,但正持续跟踪以获取更多数据。
关键要点
微软在定制硅片领域长期落后于AWS和谷歌,尽管其仍有在推进相关项目(例如Maia)。微软可通过软件主导地位以及为高端GPU支付英伟达级利润率的意愿来弥补硅片领域的差距。高通是微软客户端设备的关键供应商。高通目前在移动和边缘计算领域展开竞争,但随着机器人技术和分布式AI应用的扩展,预计其将与英伟达产生更直接的竞争。
Cerebras、SambaNova、Tenstorrent和Graphcore等企业推出了专用AI架构。中国也在研发本土GPU或类GPU加速器。然而,统一的挑战仍在于软件兼容性、开发者生态的积累,以及推翻事实上的行业标准所需的巨大努力。
关键要点: 尽管竞争激烈,这些参与者目前均不足以威胁英伟达的长期主导地位——除非英伟达自身出现重大失误。市场规模足够庞大,足以让多家企业共存发展。
认为英伟达的竞争优势是一道多维度的护城河,横跨硬件与软件领域。近二十年的系统性创新才构建出这一既广且深的集成生态系统。
英伟达的GPU采用先进制程节点,集成HBM内存,并配备专用张量核心,实现了AI性能的飞跃。值得注意的是,英伟达可每隔12至18个月推出新一代GPU迭代。同时,其采用“整头牛”方法——确保每一片可回收的晶圆都能在产品组合(数据中心、PC显卡或汽车领域)中找到用武之地。这一策略有效提升了良率和利润率。
收购Mellanox使英伟达掌控了InfiniBand技术,能够快速推出端到端的AI集群完整解决方案。ConnectX与BlueField DPU的整合进一步巩固了其在超高速网络领域的领导地位,这对多GPU扩展至关重要(所以 DPU 本质上是网卡升级版,更加关注网络协议栈的优化、定制)。尽管行业正转向Ultra Ethernet标准,许多人认为这会威胁英伟达的护城河,但不认同这一观点。虽然网络是英伟达快速上市优势的关键组成部分,但它只是产品组合中的辅助角色。相信,随着市场需求变化,英伟达能够成功优化其技术栈以适配Ethernet标准,并维持其核心优势——软硬件堆栈的深度整合。
英伟达的软件生态已远超CUDA,覆盖了AI应用开发的几乎每个阶段。最终结果是开发者更倾向于留在英伟达的生态系统内,而非寻求替代方案。
英伟达CEO黄仁勋多次强调公司对合作伙伴网络的重视。几乎每一家主要科技供应商和云服务商都提供基于英伟达的实例或解决方案。这一广泛的布局产生了显著的网络效应,进一步巩固了其护城河。
核心观点: 英伟达的优势并非仅依赖芯片。其软硬件的深度整合——依托庞大的生态系统——构筑了一道难以复制的堡垒式护城河。
CUDA虽是软件讨论的核心,但英伟达的软件架构远不止于此。下文重点介绍六层关键架构:CUDA、NVMI/NVSM(以下简称“NIMS”)、Nemo、Omniverse、Cosmos,以及英伟达的开发者库/工具包。
统一计算架构(CUDA) 是英伟达的核心并行计算平台。它抽象了GPU硬件的复杂性,允许开发者使用C/C++、Fortran、Python等语言编写应用程序。CUDA协调GPU核心并优化工作负载调度,加速AI、高性能计算(HPC)、图形渲染等领域。
NVIDIA NIMS 是一套用于简化和加速基础模型在任意云或数据中心部署的推理微服务。
NeMo 是一个端到端框架,用于开发和微调大型语言模型及自然语言处理应用。它提供预构建模块、预训练模型以及将模型导出到英伟达其他产品的工具,帮助企业快速实现基于NLP和大型语言模型的业务洞察。
Omniverse 是一个用于3D设计协作、仿真和实时可视化的平台。最初面向设计工程和媒体领域,如今扩展至机器人、数字孪生和基于物理的高级仿真。它借助CUDA进行图形渲染,结合实时图形与AI驱动的仿真能力。
Cosmos 是一个帮助开发者为物理AI系统创建世界模型的平台。它被用于加速机器人和自动驾驶汽车(AV)的开发。
除了核心框架外,英伟达开发了数百个专用库,涵盖神经网络操作、线性代数、设备驱动、HPC应用、图像处理等领域。这些库经过精心优化以实现GPU加速——进一步牢牢锁定投入时间掌握这些技术的开发者社区。
关键要点:软件栈可以说是英伟达持续领先地位的最重要因素。CUDA仅是其中一部分。英伟达更广泛的AI软件套件在深度和成熟度上的优势,构成了新竞争者难以逾越的壁垒。
尽管本分析聚焦数据中心转型,但若不提及AI PC则有失偏颇。今年CES上,多家厂商推出了标榜“AI PC”的笔记本和台式机,通常搭载神经处理单元(NPUs)或专用GPU以支持本地推理。
上述调查数据来自ETR对约1,835名IT决策者进行的调研。纵轴为净分(支出势头),横轴为重叠度(渗透率),基于这1,835个账户的数据。表格中标注了散点图的绘制方式(净分和样本量N)。戴尔笔记本位于市场份额曲线顶端,样本量达543,苹果、惠普和联想均展现出强劲的支出势头。图表显示主要PC供应商的支出势头保持健康。
目前,许多AI PC中的NPU因软件堆栈尚未完全优化而处于闲置状态。未来,预期客户端设备将出现更多专用AI应用——可能实现实时语言翻译、图像/视频处理、高级安全功能及小规模本地LLM推理。
凭借GPU领域的业绩,英伟达的AI PC技术性能可能优于移动设备或笔记本电脑中的典型NPU。然而,功耗、散热和成本限制仍是重大挑战。观察到英伟达正通过回收“整块芯片”晶圆,并将其整合到功耗范围更低的笔记本电脑GPU中。
尽管本节偏离了数据中心主题,但AI PC可能推动开发者采用。终端设备AI在生产力、专业负载及特定垂直领域场景中具有实际意义,这或将加速整个生态系统向并行计算架构的转型。
建模了2019年至2035年整个数据中心市场(服务器、存储、网络、电源、冷却及相关基础设施)。研究显示,传统通用计算正快速向并行计算架构转型。
将“并行计算”定义为用于AI训练、推理、高性能计算集群和高级分析的专用硬件与软件。
目前估计,英伟达占据 约25% 的数据中心细分市场份额。认为,在无重大失误的前提下,英伟达将在预测期内持续保持这一领先地位——即便面临超大规模云服务商、AMD等竞争对手的激烈竞争。
核心结论:向加速计算的预期转型构成了对数据中心增长持乐观态度的基础。相信,并行计算将开启数据中心基础设施投资的长期(甚至数十年)超级周期。
提出,一个由AI驱动的万亿美元级新市场正在形成。传统意义上的数据中心将转型为以GPU和专用加速器为核心的分布式并行处理架构。英伟达凭借其软硬一体化平台(硬件+软件+生态)引领这一变革,但并非孤军奋战。超大规模云服务商、半导体竞争对手及专业初创企业均将在快速扩张的市场中扮演角色。
尽管对前景持积极评估,但仍需正视以下风险:
最终观点:依研判,英伟达的未来充满希望,但不可掉以轻心。公司最有力的护城河仍是软硬件领域的持续创新——这一战略助其崛起,并将在这一并行计算的新时代继续推动其领导地位。
延伸思考
这次分享的内容就到这里了,或许以下几个问题,能够启发你更多的思考,欢迎留言,说说你的想法~
原文标题:How NVIDIA is Creating a $1.4 Trillion Data Center Market in a Decade of AI
By David Vellante[5] and David Floyer[6]| January 11, 2025
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有