英伟达目前是世界上最大AI数据中心制造商,约占全球80%-95%的市场份额[1]。凭借着其专有的互联技术NVLink、NVLink Switch(NVSwitch)和Infiniband,实现了AI芯片和数据中心之间的高速数据传输。
按:UALink 最新一代标准即将发布,且看数据中心互联技术竞争。

UALink-Fig-1
在数据中心推进人工智能(为什么互联技术在DC重要?)

UALink-Fig-2
UALink 成员(头部A国互联网、硬件厂商,留意没有Nvidia)

UALink-Fig-3
超级加速器链路(Ultra Accelerator Link,UALink)

UALink-Fig-4
UAL 最新进展
UALink是一种专为AI加速器(如GPU)之间高效通信而设计的互连技术。以下是关键要点:

UALink-Fig-5
UAlink 使用场景
Note:UALink是对标NVlink的互联协议,场景是片上加速器互联通信(可扩展为单个Pod),和CXL、IB、UEC(超以太网联盟)等场景不同。

“反英伟达联盟”成立,UALink能否取代NVLink?_凤凰网
高性能计算和数据中心用于加速器互连的几种关键技术和标准,以及它们各自的适用场景如下: 1. UALink (Ultra Accelerator Link) 适用场景: 主要用于数据中心和高性能计算环境中,支持多个AI加速器之间的扩展连接。这种标准致力于创建一个开放的生态系统,使得不同厂商的加速器能够高效地进行通信和扩展,适用于需要大规模AI计算和数据处理的应用。 2. NVLink 适用场景: 主要用于NVIDIA的GPU之间,或GPU与其他处理器(如CPU)之间的高速数据传输。NVLink适用于图形密集型应用、深度学习训练和推理等场景,其中对带宽和延迟的要求极高。 3. CXL (Compute Express Link) 适用场景: 主要支持CPU与加速器、内存扩展设备之间的高速互连。CXL适合于内存共享和资源协调需求较高的数据中心环境,如大规模虚拟化、云计算以及需要高速内存访问的应用。 4. InfiniBand 适用场景: 用于连接高性能计算集群的节点,广泛应用于科学计算和工程模拟领域。InfiniBand提供极高的数据传输速率和非常低的延迟,适用于要求实时数据处理和大量数据传输的计算密集型任务。 5. Omni-Path 适用场景: 类似于InfiniBand,主要用于连接高性能计算环境中的服务器和存储系统。Omni-Path适合于超级计算和密集数据处理,其中对通信效率和扩展性有较高要求。

UALink-Fig-6
图中右下框选示意:UALink的作用单元,可互联单服务器上的多个加速器(数十到数百),可以扩展到整个pod上的加速器互联(数百到数万)。上款选示意:多个pod间的扩展互联技术,如 UEC/IB (主流),以及在HPC场景使用较多的Intel Omni-Path.
Note:NV的加速计算方案中IB作为横向扩展互联的网络方案,技术相对垄断且价格昂贵,UEC是基于以太网的互联组织,Omni-Path是成熟的以太网互联方案,可以说后两者是业内与IB竞争的主流组织及方案。
本文介绍了一个由AMD、Broadcom、Cisco、Google、HPE、Intel、Meta和Microsoft共同组成的Promoter's Group发起的项目——Ultra Accelerator Link(UACLink),旨在为人工智能模型的训练和推理提供一个高效的加速解决方案,UALink联盟计划在2024年第三季度启动该组织,初始规范将在年底前发布。
[1] 约占全球80%-95%的市场份额: https://tech.ifeng.com/c/8a26FMdk2AZ