Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >业界 | Facebook的「下一代 AI 计算平台」长什么样子?

业界 | Facebook的「下一代 AI 计算平台」长什么样子?

作者头像
AI研习社
发布于 2019-05-08 09:42:45
发布于 2019-05-08 09:42:45
8100
举报
文章被收录于专栏:AI研习社AI研习社

AI 科技评论按:作为社交网络巨头,Facebook 的一系列应用和服务每月服务的用户多达 27 亿。随着近几年的 AI 热潮席卷而来,Facebook 也开始把数据中心中的许多通用计算硬件逐渐切换为了性能、功耗、效率更好的专用硬件。

昨天(美国时间 3 月 14 日),Facebook 公开介绍了自己的「下一代」AI 模型训练硬件平台 Zion,一并也介绍了针对另外两类计算的定制化 ASIC(应用专用集成电路)芯片:用于 AI 推理的 Kings Canyon,以及用于视频转码的 Mount Shasta 。这些新设计主要针对 AI 推理、AI 训练、视频转码三类计算。这些计算不仅负荷重、切换为专用硬件的提升明显,而且也是 Facebook 中快速扩大的服务类型。

从当代 AI 硬件到下一代 AI 硬件

Facebook 早就开始大规模部署 AI 模型用于业务中的计算,这些模型每天要进行超过一百万亿次预测以及超过六十亿次语言翻译。Facebook 用来识别、分类内容的图像识别模型也使用了超过 35 亿张图像训练。各种使用了 AI 的服务帮助用户更好地进行日常沟通,也为他们提供了独特、个性化的使用感受。

Facebook 自研的 AI 平台 FBLearner 管理了 Facebook 目前的大多数 AI 模型流水线。FBLearner 中包含了特征存储、训练过程管理、推理引擎管理等对应问题不同部分的工具。另外,Facebook 也基于「开放计算计划」(OCP)设计了自己的硬件,这些硬件和 FBLearner 配合使用,能够让 Facebook 的开发人员们快速大批量地部署模型。

在解决了当前紧迫的计算规模问题之后,Facebook 继续集中精力研发,最终目标是创建一种面向未来的、牢靠的硬件设计,它不仅要对供应商是透明的,同时也要能持续体现 Facebook 的最大化运行效率的离散化设计理念。Facebook 的答卷就是他们的下一代训练、推理硬件平台。

用 Zion 进行 AI 训练

Zion 是 Facebook 的下一代大容量统一训练平台,目标是高效地承担未来的更大计算负载。Zion 在设计时就考虑了如何高效地处理 CNN、LSTM、稀疏神经网络等多种不同的神经网络模型。Zion 平台可以提供高内存容量、高带宽、灵活的高速内部连接,为 Facebook 内部的关键工作负载提供强大的计算能力。

Zion 的设计采用了 Facebook 新的供应商透明的 OCP 加速模型(OAM)。OAM 的作用在于,Facebook 从 AMD、Habana、Graphcore、英特尔、英伟达等许多不同的硬件供应商处购买硬件,只要他们在开放计算计划(OCP)的公开标准基础上开发硬件,不仅可以帮助他们更快地创新,也可以让 Facebook 自由地在同一个机架上的不同的硬件平台、不同的服务器之间拓展,只需要通过一个机柜网络交换机。即便 Facebook 的 AI 训练负载不断增加、不断变得更加复杂,Zion 平台也可以拓展并处理。

具体来说,Facebook 的 Zion 系统可以分为三个部分:八路 CPU 服务器、OCP 加速模块、以及可以安装八个 OCP 加速模块的平台主板。

左,模块化服务器主板,每个主板可以安装 2 个 CPU;右:四张主板、八个 CPU 组成一台八路服务器
左,一个 OCP 加速模块;中,八个 OCP 加速模块安装在一个平台主板上;右,组成一个含有八块加速芯片的平台
Zion 平台内部模块连接示意图

Zion 平台的设计得以把系统中的内存、计算、网络部件进行解耦,然后每一项都可以独立地进行拓展。系统中的八路 CPU 平台可以提供超大的 DDR 内存池,服务于对内存容量有很高要求的工作负载,比如稀疏神经网络的嵌入表。对于 CNN 或者稀疏神经网络中较为稠密那些,它们对带宽和计算能力更为敏感,那么它们的加速主要就是依靠连接到每个 CPU 上的 OCP 加速器模块。

系统中包括两种高速连接线:一种把所有 CPU 互相连接,另一种把所有的加速器互相连接。由于加速器具有很高的内存带宽和低内存容量,Facebook 工程人员想了一种办法来高效地利用总的内存容量:把模型和内存做一定的划分,比较经常访问的数据就存储在加速器的内存上,不怎么经常访问的数据则存储在 CPU 的 DDR 内存中。所有 CPU 和加速器之间的计算和通讯会进行平衡,通过高速和低速互联线路高效地执行。

用 Kings Canyon 进行 AI 推理

与逐渐增加的 AI 训练负载相对应地,AI 推理负载也在快速增加。在下一代设计中,Facebook 和 Esperanto, Habana, 英特尔, Marvell, 高通等企业合作,共同开发易于拓展和部署的专用 ASIC 芯片。Kings Canyon 芯片可以同时支持偏重推理速度的 INT8 (8 位整型)计算,以及偏重更高精度的 FP16 (半精度浮点)计算。

Kings Canyon 芯片搭载在 M.2 规格的电路板上;每个 Glacier Point v2 母板上安装六块 Kings Canyon 芯片;最后,两个 Glacier Point v2 母板和两个单路服务器一同组成一台完整的 Yosemite 服务器。

Facebook 的视频转码 ASIC 芯片 Mount Shasta 也采用了这样的布置方式。

总结

根据 Facebook 给出的图解和介绍,目前似乎只有 AI 训练平台 Zion 已经开始投入使用,AI 推理芯片 Kings Canyon、视频转码芯片 Mount Shasta 以及相关硬件还没有看到实物。但 Facebook 上下都对这套设计充满了信心。未来他们将通过 OCP 公开所有的设计和相关规格,便于更广泛的合作;Facebook 也会和目前的合作伙伴一起共同改善整套系统的软硬件共同设计。

更多详细说明可以参见 Facebook 官方介绍:https://code.fb.com/data-center-engineering/accelerating-infrastructure/,AI 科技评论报道

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-03-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI研习社 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Facebook开源AI硬件,一口气推出“三件套”
为了应对大量的算力要求,这家位于Menlo Park的技术巨头,硬是从通用硬件转移到了专用加速器。这些加速器的作用,是保证其数据中心的性能,功耗和效率,特别是在AI领域。
新智元
2019/05/08
8310
Facebook开源AI硬件,一口气推出“三件套”
刚刚,Facebook把服务27亿人的AI硬件系统开源了
Facebook 的基础设施现在每月为其整个应用和服务系统上超过 27 亿的人提供服务。他们的工程师设计并创建了高级、高效的系统来扩大这一基础设施,但是随着工作负载的增长,单靠通用处理器已经无法满足这些系统的需求。晶体管增长的速度已大大放缓,这就需要开发出专门的加速器和整体的系统级解决方案来提高性能、功率和效率。
机器之心
2019/04/09
6310
刚刚,Facebook把服务27亿人的AI硬件系统开源了
从开源AI到加码区块链,看Facebook背后的新野望
Facebook这家社交公司如今不仅将触手伸向了开源AI,更加码区块链,如此看来Facebook更希望自己是一个“科技公司”而不是“网络公司”。
科技云报道
2022/04/15
2510
从开源AI到加码区块链,看Facebook背后的新野望
Facebook 的应用机器学习平台
机器学习是Facebook许多重要产品和服务的核心技术。这篇论文来自Facebook的17位科学家和工程师,向世界介绍了Facebook应用机器学习的软件及硬件架构。 本着“赋予人们建立社区的力量,使世界更紧密地联系在一起”的使命,到2017年12月,Facebook已经将全球超过二十亿人连接在一起。同时,在过去几年里,机器学习在实际问题上的应用正在发生一场革命,这场革命的基石便是机器学习算法创新、大量的模型训练数据和高性能计算机体系结构进展的良性循环。在Facebook,机器学习提供了驱动几乎全部用户服务
用户1263954
2018/04/08
2.6K0
Facebook 的应用机器学习平台
一周AI十大要闻回顾 | 政策加速医疗AI,量子计算又有新突破
最新报道称,为促进AI产业发展,国家药监局医疗器械技术审评中心目前正在筹建人工智能医疗器械创新联盟,并将发动各方资源加入。
量子位
2019/04/23
6350
一周AI十大要闻回顾 | 政策加速医疗AI,量子计算又有新突破
7nm制程,比GPU效率高,Meta发布第一代AI推理加速器
机器之心报道 机器之心编辑部 近日,Meta 透露了其在人工智能方面取得的最新进展。 人们提起 Meta 时,通常会想到其应用程序,包括 Facebook、Instagram、WhatsApp 或即将推出的元宇宙。但许多人不知道的是这家公司设计和构建了非常复杂的数据中心来运营这些服务。 与 AWS、GCP 或 Azure 等云服务提供商不同,Meta 不需要披露有关其硅芯选择、基础设施或数据中心设计的细节,除了其 OCP 设计用来给买家留下深刻印象。Meta 的用户希望获得更好、更一致的体验,而不关心它是如
机器之心
2023/05/22
3750
7nm制程,比GPU效率高,Meta发布第一代AI推理加速器
小扎豪赌大模型!Meta重磅推出定制芯片MTIA v1和全新超算
---- 新智元报道   编辑:拉燕 Aeneas 【新智元导读】全世界都在卷大模型,小扎也急了。如今,Meta为了发展AI,在定制芯片和超算上下了大赌注。 Meta也有纯自研芯片了! 本周四,Meta发布第一代AI推理定制芯片MTIA v1和超算。 可以说,MTIA对Meta是一个巨大的福音,尤其是现在各家都在卷大模型,对AI算力的需求变得越来越高。 小扎最近表示,Meta看到了「以有用和有意义的方式向数十亿人介绍人工智能代理的机会」。 显然,随着Meta加大对AI的投入,MTIA芯片和超算计划将是
新智元
2023/05/22
5130
小扎豪赌大模型!Meta重磅推出定制芯片MTIA v1和全新超算
Facebook如何运用机器学习进行亿级用户数据处理
编译 | 刘畅、尚岩奇、林椿眄 审校 | reason_W 2017年末,Facebook应用机器学习组发布最新论文,对整个Facebook的机器学习软硬件架构进行了介绍。纵览全文,我们也可以从中对Facebook各产品的机器学习策略一窥究竟。论文中涉及到机器学习在全球规模(上亿级数据处理)上的全新挑战,并给出了Facebook的应对策略和解决思路,对相关行业和研究极其有意义。 摘要 机器学习在Facebook的众多产品和服务中都有着举足轻重的地位。 本文将详细介绍Facebook在机器学习方面的软硬件
用户1737318
2018/06/05
8370
安全:下一代网络的基本组成
作者:Jim Wallace, Arm; Joseph Byrne, NXP,安智客译 很难想象,哪一天能够不依靠电脑或智能手机工作,购物或银行业务,与朋友聊天,甚至听音乐或观看节目时都是如此。 与此同时,当头条新闻报道大量盗用信用卡数据,医院运营被勒索赎金,或者访问一个受欢迎的网站被拒绝时,很难不感到这些冲击带来的脆弱感。 随着我们变得更加容易连接,攻击面不断增长,安全性,恢复能力和隐私等信任要素将需要内置到下一代智能边缘设备,网络和数据中心中,以减少漏洞并实现到我们超连接世界的好处。 安全技术是SoC
安智客
2018/04/19
1.1K0
安全:下一代网络的基本组成
Meta宣布全新训推一体加速器:完全集成PyTorch 2,性能3倍提升
Meta 正在不遗余力地想要在生成式 AI 领域赶上竞争对手,目标是投入数十亿美元用于 AI 研究。这些巨资一部分用于招募 AI 研究员。但更大的一部分用于开发硬件,特别是用于运行和训练 Meta AI 模型的芯片。
机器之心
2024/04/12
1760
Meta宣布全新训推一体加速器:完全集成PyTorch 2,性能3倍提升
超微:下一代存储系统接口设计与实践
按:海外服务器厂商 Supermicro (超微)在FMS2024 峰会上,介绍了其最新存储服务器架构设计和选型建议,并曝露CXL内存的支持路标。
数据存储前沿技术
2025/02/11
2020
超微:下一代存储系统接口设计与实践
深入Facebook机器学习部门:服务、模型、框架和硬件(贾扬清等HPCA论文)
来源:research.fb.com 作者:Kim Hazelwood et al. 编译:刘小芹 【新智元导读】近日 Facebook 研究团队公开一篇 HPCA 2018 论文,作者包括 Caffe 作者贾扬清等人,深度揭示了 Facebook 内部支持机器学习的硬件和软件基础架构。Facebook 的几乎所有的服务都广泛应用机器学习,其中计算机视觉只占资源需求的一小部分。此外,Facebook 依赖多种机器学习方法,包括但不限于神经网络。硬件方面,用CPU 做推理,CPU 和 GPU都用于训练,并且进
新智元
2018/03/20
1.2K0
深入Facebook机器学习部门:服务、模型、框架和硬件(贾扬清等HPCA论文)
苏妈杀疯了:移动端最强NPU算力达50TOPS,最强AI芯片挑战英伟达
一年一度的 Computex 科技大会成为了 GPU 厂商们秀肌肉的舞台,其中当属英伟达和 AMD 最为亮眼。英伟达现场拿出了量产版 Blackwell 芯片,还公布了未来三年的产品路线,包括下一代 Rubin AI 平台。
机器之心
2024/06/04
2650
苏妈杀疯了:移动端最强NPU算力达50TOPS,最强AI芯片挑战英伟达
深度揭秘谷歌TPU2机器学习集群:新一代的「谷歌云TensorFlow处理单元」
选自The Next Platform 作者:Paul Teich 机器之心编译 参与:Nurhachu Null、黄小天 在最近的 2017 Google I/O 大会上,谷歌发布了 TPU2(第二代 TensorFlow 处理单元);近日,TIRIAS Research 的一位顶尖技术专家和首席分析师 Paul Teich 在 Nextplatform 发表文章,对 TPU2 机器学习集群做了深度揭秘,提出了一些不同观点,比如他认为 TPU2 是内部专属产品,Google 不太可能出售基于 TPU 的
机器之心
2018/05/07
1.6K0
深度揭秘谷歌TPU2机器学习集群:新一代的「谷歌云TensorFlow处理单元」
英伟达推出新一代AI加速芯片H200
其中,H200作为新一代AI加速器,凭借其卓越的性能和先进的技术,正成为业界的焦点。
通信行业搬砖工
2024/01/31
3750
英伟达推出新一代AI加速芯片H200
四篇技术论文,英特尔在Hot Chips 2024大会上展示AI架构新进展
近日,在2024年Hot Chips大会上,英特尔展示了其技术的全面与深度,涵盖了从数据中心、云、网络和边缘到PC的各个领域AI用例,并介绍了其业界领先且完全集成的OCI(光学计算互连)芯粒,可用于高速AI数据处理。此外,英特尔还披露了关于英特尔® 至强® 6系统集成芯片(代号Granite Rapids-D)的最新细节,该产品预计将于2025年上半年发布。
芯智讯
2024/08/30
1440
四篇技术论文,英特尔在Hot Chips 2024大会上展示AI架构新进展
成立三年被英特尔20亿美元收购,这家以色列AI芯片公司做对了什么?
12 月初,外媒报道芯片制造商英特尔正洽谈收购以色列 AI 芯片制造商 Habana Labs 事宜,传闻很快得到印证,北京时间 12 月 16 日,英特尔表示以约 20 亿美元收购 Habana Labs。
机器之心
2019/12/24
5220
英特尔首款AI芯片终于面世!10nm工艺,以色列团队设计细节曝光
近日在Hot Chips 2019大会上,英特尔发布了首款AI处理器,专为大型计算中心设计。
新智元
2019/08/23
4790
英特尔首款AI芯片终于面世!10nm工艺,以色列团队设计细节曝光
Facebook AI 野心与LeCun的小目标:拥有类人智能的对话助理
【新智元导读】 不同于以往的“深度好文”,这篇描写 Facebook AI发展的文章不仅仅聚焦在机器学习技术,更多地强调各种先进的机器学习模型与Facebook 本身的基础架构、大规模部署和产品管道之间的配合,并强调硬件的支撑能力。对于公司来说,得应用者才能得天下,文章列举了 Facebook 从2012年来在图像识别和视频识别等方面的技术应用,强调AI 技术的发展中学术实验与产业应用之间存在显著差异。不管是扎克伯格还是Yann LeCun,他们的目标都是打造具有类似人类智力的对话代理,AI 毫无疑问是F
新智元
2018/03/27
8200
Facebook AI 野心与LeCun的小目标:拥有类人智能的对话助理
深度 | 从GPU制造者到服务器提供商:英伟达的计算平台转型
这是一次巨大的转变,但对所有以计算为中心的平台供应商而言,这个过程终将——在某些情况下逐渐地发生。
机器之心
2018/07/30
1.4K0
深度 | 从GPU制造者到服务器提供商:英伟达的计算平台转型
推荐阅读
相关推荐
Facebook开源AI硬件,一口气推出“三件套”
更多 >
交个朋友
加入腾讯云官网粉丝站
蹲全网底价单品 享第一手活动信息
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档