首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >Sora 2 震撼登顶:OpenAI联手博通打造自研芯片!升级“芯”战!

Sora 2 震撼登顶:OpenAI联手博通打造自研芯片!升级“芯”战!

作者头像
AGI小咖
发布2025-12-23 15:28:59
发布2025-12-23 15:28:59
420
举报

1

Sora 2 震撼登顶点燃“芯”战新篇章

1.1 Sora 2 震撼登顶背后“甜蜜烦恼”

2025年10月3日,凭借着“AI+社交”的创新玩法OpenAI的视频社交应用Sora 2登顶苹果美国“热门免费应用”榜单(前三名中OpenAI独占两席(Sora 2与ChatGPT)),让OpenAI有底气首次直接与Meta、Ticktok等社交巨头展开竞争。

Sora 2爆火的背后是OpenAI对算力资源的巨大胃口,但由于Sora 2采用的DiT(Diffusion Transformer)架构所引发的远超传统LLM的架构复杂性,导致Sora 2的推理成本理论计算值高达GPT-4的约2000倍,生成一段5秒视频的成本高达0.5至2.5美元(比可灵等国产模型高出80%左右),随着用户生成视频数量的爆发式增长,推理侧的多模态算力需求正呈指数级增长,即便财大气粗如Sam Altman也难以承受如此天文数字般的运营开销

1.2 OpenAI DevDay上成本宣言

仅仅三天之后在OpenAI DevDay上,Sam Altman便向全球开发者许下了一个震撼性的承诺:GPT-5 Turbo模型的推理成本将降低90%,且承诺未来每18个月下一代顶级模型的单位算力成本将下降一个数量级。

1.3 携手博通10GW自研芯片下场“芯”战

如何兑现承诺?答案在一周后揭晓——10月13日,OpenAI与博通达成战略合作共同开发一个10GW规模的定制人工智能加速器。

OpenAI将主导芯片与系统设计,将其前沿模型开发经验直接融入硬件,以期解锁新的智能水平。而博通则提供加速器及完整的以太网解决方案,并负责从2026年下半年开始的部署工作,计划于2029年底前完成全部建设

这不仅仅是是将DevDay上的成本革命宣言付诸实践,也标志着OpenAI正式迈向自研芯片之路加入巨头之间的“芯”战

图 1: OpenAI 与博通战略合作

1.4 “星际之门”之万亿美元的“铁索连环”

为应对算力危机OpenAI祭出杀手锏即全球范围内投资1万亿美元通过“铁索连环”构筑算力算力联盟,为Sora 2等下一代应用提供超过30GW的超大规模AI算力引擎。

(1)硬件端: 26GW=英伟达(≥10GW GPU)+AMD(6GW GPU)+博通(10GW ASIC)+ 配套HBM/DDRM(联合三星+SK海力士)

(2)云服务端:甲骨文(3000亿美元)和CoreWeave等深度绑定。

1.5 为什么AI巨头必须自研芯片?

在通往AGI的征途中算力即权力,而自研芯片就是铸造权力的基石。Google和Meta的自研芯片之路与前序文章分享过的Sam Altman构建“星际之门”万亿朋友圈都是为了同一个终极目标:构建一个自主、高效、安全且成本可控的超级AI算力集群底座。

2

Google/Meta/特斯拉纷纷下场“芯”战

2.1 Google TPU & Meta MTIA 成功的实践

Google的Tensor Processing Unit (TPU) 的成功案例:从驱动Google搜索、YouTube推荐等核心服务的海量推理,到赋能Gemini、PaLM等旗舰模型的尖端训练,TPU已成为Google不可或缺的算力底座,据说TPUv4可以降低20-30%训练成本。

Meta MTIA (Meta Training and Inference Accelerator) 的革命性实践:专门服务于Facebook和Instagram信息流推荐算法量身定制的第二代MTIA,每年为Meta节省数十亿美元的开支。

2.2 特斯拉Dojo沉没之前车之鉴

2019年4月22日,在特斯拉自动驾驶日上马斯克首次提及Dojo——一台用于训练其全自动驾驶(FSD)神经网络和自动驾驶汽车设计AI超级计算机,承载着马斯克跻身全球前五大芯片供应商的野心。

Dojo的第一任负责人是曾在AMD任CPU设计工程主任达14年的加内什·文卡塔拉马南(Ganesh Venkataramanan),明星团队成员均为在苹果、AMD等巨头公司混迹多年的老将.

之后主导过苹果A5-A9芯片的彼得·班农(Peter Bannon)接过了Dojo项目领导权,也无法在解决全栈自研基调下自研纯血版Dojo系列芯片大规模商业化量产的问题,尤其是软硬协同、全栈自研芯片的兼容性、良品率等问题迟迟无法解决。

即便马斯克有能力以214天建成20万卡xAI Colossus的速度,Dojo的命运也充满不确定性,花费六年烧了特斯拉数十亿美元的Dojo最终还是沉没在了冰冷的航线上。

Dojo用自己的沉没再次揭示那个真理:技术发展的理想主义即便再美好,脱离商业现实,终将成为昂贵的纪念碑。

图 2: 特斯拉首款全栈自研芯片(D1)

2.3 OpenAI & Broadcom强强联合

正如博通CEO Hock Tan所言针对不同AI任务优化芯片是关键。例如用于训练的芯片可能需要像英伟达下一代Vera Rubin平台一样更强的计算能力(以 TFLOPs 衡量)和网络带宽,而用于推理的芯片则更侧重于内存(memory)和访问速度。这种定制化能力是通用芯片难以企及的,况且定制化ASIC正日益成为实现AI普惠、引爆商业应用的关键“成本杀手”。

OpenAI作为一家软件与模型公司选择与博通“强强联合、合作共赢”的模式,巧妙的规避了3.2 章节提及的特斯拉Dojo项目风险。

在双方的合作过程中OpenAI凭借其对Transformer模型和自研Triton编译器的深刻理解充当“AI产品经理”(精准提出芯片优化需求),博通则坐拥世界顶级的ASIC设计、网络和封装技术充当“工程总包”(负责将需求转化为物理实现)。

图3: 博通高管与OpenAI高管讨论

正是这种战略布局与技术协同给了Sam Altman十足底气——实现在OpenAI DevDay上宣布推理成本降低90%目标承诺,感觉Sam Altman是想把数据流每一个端到端的环节tocken消耗和成本都可视化、牢牢掌控在手中。

值得一提的是OpenAI定制芯片计划的负责人Richard Ho还是前谷歌TPU资深工程师,此举意味着不仅能带来谷歌的成功经验,更能够凭借博通的世界级工程实力加速OpenAI首款定制芯片的问世。

图4:主持人Andrew Maine、博通半导体主管Charlie Kawwas博士、博通CEO Hock Tan、OpenAI CEO Sam Altman、OpenAI总裁Greg Brockman。

3

OpenAI双10GW的“组合拳”

3.1 训练 (0 → 1的创造) vs 推理 (1 → N的普及)

英伟达10GW GPU集群(创新引擎): 在后摩尔定律时代HBM和先进封装的供给能力已成为核心瓶颈,而下一代Vera Rubin平台又高度依赖于 HBM和先进封装, 合约的签订OpenAI不仅能够提前锁定英伟达的GPU产能和供给优先级,更借此确保了OpenAI的模型算法跃迁与英伟达的GPU硬件演进形成精准有效的“共振效应”,即英伟达的下一代GPU硬件迭代更新OpenAI总能够捷足先登、精确卡位。这个庞大的Vera Rubin集群将成为OpenAI探索未知领域、训练GPT-6等下一代更强大多模态模型不可或缺的“研发实验室”和“创新引擎”。

博通10GW的定制ASIC集群(普惠引擎): 像是一条为特定任务(例如运行GPT-5 Turbo模型)建立的、效率极高的“自动化生产线”,专注于以极致的成本效益执行大规模推理任务,专为Transformer架构优化的推理芯片能够将资源集中于处理注意力机制和KV Cache等核心环节,是实现AI普惠、引爆商业应用的“成本杀手”,也是Sam Altman在OpenAI DevDay上宣布推理成本降低90%的技术底气。

用于训练的芯片可能需要像英伟达下一代Vera Rubin平台一样更强的计算能力(以 TFLOPs 衡量)和网络带宽,而用于推理的芯片则更侧重于内存(memory)和访问速度,这个Sam Altman在本文前序章节关于Sora 2“甜蜜烦恼”中深有体会,迫切需要专为Transformer架构优化设计又能融入自家Triton编译器的高度定制化推理芯片集中处理注意力机制和KV Cache等核心环节,是实现AI普惠、引爆下一个Sora 2“成本杀手”

3.2 拥抱AMD(算力B计划)与携手博通 (端网融合方案):

OpenAI与AMD的合作和与博通的合作完全不冲突,而是多元化供应战略的完美互补:

拥抱AMD(算力B计划): 为OpenAI提供了除英伟达之外的第二个高性能GPU选择,主要解决了训练算力的供应安全问题,是GPU层面的“B计划”。

携手博通 (端网融合方案): 提供专为推理优化的ASIC芯片专门为了从根本上降低运营成本和推理成本,同时博通还能提供“Scale-up+Scale-out+Scale-across”的端到端网络解决方案。

3.3 博通的全链路赋能

正如博通CEO Hock Tan所言:“网络就是算力 (The network is the computer)”。随着AI计算集群的规模越来越大(例如超过10万个节点),数据传输的效率和延迟成为最大的瓶颈。

博通凭借其领先的Tomahawk(机架内/间扩展)和Jericho(跨数据中心扩展)系列以太网交换机和路由器芯片,正在成为解决AI集群“Scale-up+Scale-out+ Scale-across”三大扩展难题的关键供应商。

与此同时,博通还是Ultra Accelerator Link(UALink)和Ultra Ethernet Consortium(UEC) 的“产业联盟模式”的核心推动者,选择博通意味着OpenAI押注于一个更开放、更多元化的生态,加速从生成式 AI(Gen AI)到通用人工智能(AGI)的进程。

4

结论

如果说阿里千问等致力于构建开放生态的平台是AI时代的“安卓”,那么依托 8 亿用户基础OpenAI 正打造类苹果 App Store 的生态体系。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-10-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AGI小咖 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档