首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >NTT共封装光学(CPO)深度解析:技术背景、挑战与未来路径

NTT共封装光学(CPO)深度解析:技术背景、挑战与未来路径

作者头像
光芯
发布2025-08-12 10:22:09
发布2025-08-12 10:22:09
9030
举报
文章被收录于专栏:光芯前沿光芯前沿

在数据中心算力需求爆发的当下,高速互联技术成为制约性能突破的关键瓶颈。共封装光学(Co-Packaged Optics, CPO)作为一种将光引擎与芯片封装在一起的创新方案,被行业视为解决高带宽、低功耗需求的重要方向。本文基于NTT Innovative Devices的Wataru Ishida在2025年OCP APAC会议上的技术分享,系统梳理了CPO的技术背景、核心挑战、关键特性及未来前景。

一、NVLink的选择:为何铜缆仍是当前主流? 在高速互联领域,NVLink作为GPU间的关键连接技术,选择铜缆而非光学器件并非偶然,其核心原因集中在功耗与可靠性两大维度。

◆ 功耗:光学器件的“能耗门槛” 英伟达CEO黄仁勋在2024年GTC大会上明确指出:“若NVLink采用光学器件,仅收发器和重定时器(retimer)的功耗就将高达20,000瓦”。这一数据直接揭示了当前光学方案在能效比上的短板——在短距离高带宽场景中,铜缆的功耗优势仍难以替代。 ◆ 可靠性:CPO尚未满足GPU需求 尽管CPO被视为降低能耗的潜力技术,但黄仁勋在2025年GTC大会上进一步强调:“共封装光学的可靠性仍不足以支撑GPU部署”。这一判断反映了CPO在稳定性上的现实瓶颈,也是其尚未大规模落地的核心障碍之一。 二、Scale-up vs Scale-out:两种网络架构的博弈

数据中心互联存在两种典型架构,其核心差异直接影响CPO的应用场景定位。 ◆ 带宽与可扩展性的显著分野 - Scale-up网络(如NVLink/SUE):以NVLink Gen5为例,带宽可达7.2Tbps,适用于需要大规模算力聚合的场景(如AI训练集群),但规模受限(约72节点),且受铜缆传输距离限制(仅1.5米)。 - Scale-out网络(如IB/Ethernet):以ConnectX-8为例,单链路带宽800Gbps,虽单链路带宽较低,但可扩展性极强(支持超10k节点),适用于分布式计算场景。 ◆ 同步风险:Scale-up网络的“阿喀琉斯之踵”

Scale-up网络依赖紧密同步的集合通信(如AllReduce),其致命弱点在于无故障转移机制——即使单条链路失效,整个操作也会中断,导致大规模GPU训练出现“ costly回滚”。数据显示,随着GPU数量从0增加到20,000,回滚开销占比最高可达25%,这对大规模训练的效率造成严重影响。 三、光模块可靠性:故障根源与量化分析 光学器件的可靠性是CPO落地的核心挑战,其故障模式与诱因需被清晰认知。 ◆ 故障根源:环境与器件本身的双重考验

- 首要原因:环境污染(灰尘、碎片)导致连接器污染,是收发器故障的主要诱因; - 次要原因:内部激光器故障,与工作环境(尤其是温度)密切相关。

四、温度对激光器寿命的致命影响

激光器的寿命与工作温度呈强相关性。基于Arrhenius模型的测算显示:在40℃下归一化为100 FIT的激光器,当温度升至100℃时,FIT值将飙升至5000,意味着寿命急剧缩短。这一特性对CPO的散热设计提出了严苛要求——如何将激光器与热源隔离,成为技术突破的关键。 五、Retimers、LPO与CPO:技术路径的对比

在高速互联技术演进中,Retimers、LPO(Linear Pluggable Optics)与CPO代表了不同的技术选择,各有其局限性与优势。 ◆ Retimers:性能与功耗的矛盾 Retimers的核心作用是恢复长PCB迹线上的信号质量,但作为模块的主要热源,其能效表现不佳——从100G/lane升级到200G/lane时,每比特功耗(pJ/bit)无显著改善,且激光器工作环境随代际升级持续恶化。 ◆ LPO:无Retimer的冒险尝试 LPO省去了Retimer,依赖Host ASIC的SerDes均衡技术,但在200G/lane场景下尚未经过充分验证,且信号余量更严格,互操作性难以保证,这使其大规模应用存在不确定性。 ◆ CPO的核心设计原则

CPO的突破点在于两点: 1. 信号清洁:将光引擎(Optical Engines, OEs)靠近ASIC,支持200G/lane及更高速率,最大限度减少信号损失; 2. 激光冷却:将激光器与热源(ASIC、OE)物理分离,确保其工作在低温环境,提升可靠性。 六、OE集成:两种维度的技术探索 光引擎(OE)的集成方式直接影响CPO的实用性,目前行业尚未形成标准,主要从安装方式与光纤耦合两个维度探索可能的方案。

如上表所示,每种方案均有权衡:例如Option A(焊接+连接器)可提升集成度,但单OE故障需更换整个模块;Option B(插座+尾纤)支持单独更换故障OE,良率更高,但设计复杂度增加。需根据目标场景(如scale-up)针对性优化。 七、集成模式:从传统到CPO的演进 不同技术路径对应不同的产业链集成模式,其核心差异体现在责任分工与灵活性上。 ◆ 传统模式:运营商主导的兼容性验证

运营商分别采购交换机和收发器,兼容性与系统级验证由运营商自行负责,供应链灵活但协同成本高。 ◆ LPO模式:协同难度陡增

虽集成逻辑与传统可插拔模块类似,但互操作性更难保证,需光模块厂商、设备厂商、运营商深度协同,看似平滑的过渡背后隐藏着巨大挑战。 ◆ CPO模式:两种选项的权衡

- Option A(焊接+连接器):CPO模块预组装后交付设备厂商,因host ASIC成本高昂,需严格保障良率(单OE故障将导致整个模块报废);运营商无插拔灵活性,但功能可靠性由设备厂商保障。

- Option B(插座+尾纤):CPO模块与OE分别交付,设备厂商负责组装,单OE故障可单独更换,良率更高,对运营商而言与Option A无显著差异。 八、控制架构:软件与硬件的协同难题

CPO的控制架构需解决两个核心问题: 1. OE控制是否需兼容现有可插拔光模块标准(如支持CMIS寄存器映射)? 2. OE控制应通过主机ASIC的SDK实现,还是独立处理(如在SONiC系统中通过SAI或xcvrd管理)? 这些问题的答案尚无定论,但明确了一个原则:硬件接口设计与软件开发必须深度协同,才能实现CPO的高效管理。 九、CPO应用案例:102.4T以太网交换机

Broadcom基于Tomahawk 6芯片的102.4T以太网交换机,展示了CPO的实用化潜力: - 功耗降低50%:得益于高效直接液冷设计,同时冷却ASIC和光学器件; - 关键突破:采用插座接口光引擎,克服了CPO规模化部署的核心障碍。 十、CPO的未来:不可逆转的趋势与时间线 行业共识已明确:CPO是高速互联技术的必然方向,讨论焦点已从“是否需要CPO”转向“如何实施”(包括集成模式、控制架构、运营准备)。

OCP educational webinar的调查显示了行业对CPO部署时间的预期: - 2-5年内:49% - 2年内:39% - 已就绪:8% - 未来十年(或永不):5% CPO的落地之路仍需跨越可靠性、集成标准、成本控制等多重障碍,但随着技术迭代与产业链协同的深化,其在数据中心大规模部署的曙光已现。对于行业而言,当下的核心任务是凝聚共识,推动标准化与实用化技术的突破,让CPO从“潜力技术”真正转化为“生产力工具”。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-08-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 光芯 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档