AMD将于今年秋季在部分RDNA™ 3 GPU上添加ROCm的支持
人工智能是塑造下一代计算的决定性技术。近几个月来,我们都看到了生成式人工智能和大语言模型的爆炸式增长正在彻底改变我们与技术交互的方式,并推动以GPU为中心的数据中心对高性能计算的需求显著增加。
ROCm是一个开放软件平台,允许研究人员利用AMD Instinct加速器的强大功能,促进HPC和AI创新跨平台的可移植性。ROCm 5具有针对AI和HPC工作负载的全面优化套件。其中包括针对大型语言模型精细调整的内核、对新数据类型的支持以及对像OpenAI Triton类编程语言等新技术的支持。
ROCm验证现在包括每晚进行数十万次框架测试,以及跨数千个模型和运算符的验证。这包括对PyTorch、TensorFlow、ONNX和JAX等领先框架的支持,为基于这些框架构建的所有AI模型提供更佳的开箱即用的开发者体验。
我很高兴地宣布ROCm 5.6的最新版本。
ROCm 5.6通过针对大语言(和其他)模型的新型AI软件附加组件增强了功能,包括跨ROCm 库组合的许多性能优化。它还反映了支持人工智能社区的持续改进,包括:
· 将Hugging Face单元测试套件集成到ROCm QA中
· 在PyTorch 2.0感应器模式下对OpenAI Triton的增量支持
· 通过ROCm对PyTorch、TensorFlow和JAX启用OpenXLA支持,从而支持更广泛的社区
ROCm 5.6还引入了对FFT、BLAS和求解器等多个数学库的改进,这些数学库构成了HPC应用程序的基础,并增强了ROCm开发和部署工具,包括安装、ROCgdb(CPU-GPU集成调试器)、ROCm分析器和文档。
随着行业朝着支持广泛加速器的开放生态系统发展,我们将继续努力进一步优化框架和后端编译器,以实现更佳性能,包括MLIR基础设施改进,巩固AMD对OpenAI Triton和OpenXLA编译器的支持。 我们还将继续在Hugging Face的AMD hub中添加针对AMD解决方案优化的其他开源AI模型。
对于HPC用户,我们最近在AMD Infinity Hub上发布了许多发布方法,使客户能够构建HPC应用程序容器,未来的ROCm版本将增加AMD Instinct解决方案支持的HPC应用程序数量。
我们还看到开发人员对在Radeon消费级和 Radeon Pro工作站级GPU上运行用于AI和ML的ROCm开放软件平台表现出了极大的兴趣,并听到了社区对不受支持的GPU上的特定驱动程序问题提出的挑战。我可以很高兴地说,我们已经修复了ROCm 5.6中报告的问题,并且我们致力于今后扩大我们的支持。
我们计划将ROCm支持从当前支持的AMD RDNA 2工作站GPU:Radeon Pro v620和w6800 扩展到特定的AMD RDNA 3工作站和消费级GPU。Linux上对基于RDNA 3的GPU的正式支持计划于今年秋季开始推出,首先是48GB Radeon PRO W7900和24GB Radeon RX 7900 XTX,随着时间的推移,还会发布更多卡和扩展功能。
更多关于ROCm 5.6的信息,请访问:https://www.amd.com/zh-hans/graphics/servers-solutions-rocm
领取专属 10元无门槛券
私享最新 技术干货