在 GTC 大会上,Nvidia CEO 黄仁勋宣布 Nvidia GPU 已经支持由 Google 孵育的 Kubernetes 容器编排系统了。
据称,这么做是为了优化 GPU 在超大型数据中心的使用,在这类环境中,你可以使用成百上千的 GPU 来加速机器学习的过程,且允许开发人员将这些容器带到多个云中,而无需做任何更改。
黄仁勋说道:“现在我们已经有了所有这些加速框架和代码,那么,我们如何将它们部署到数据中心的世界中呢?事实证明,Kubernetes 可以做到这些!这真是一件让人高兴的事。”
Nvidia 为 Kubernetes 开源社区贡献了自家的 GPU 增强功能。对于机器学习,不管是所需的计算还是驱动所需要的数据,工作量往往都很大。而 Kubernetes 可以协助编排这些工作负载,并且,在本次更新中,协调器已经可以识别 GPU。
黄仁勋还表示:“Docker 容器现已获得 GPU 加速能力,我讲到的所有这些框架、推理的工作负载、所有云,都可以 GPU 加速。”
原文:TechCrunch 编译:开源中国
领取专属 10元无门槛券
私享最新 技术干货