北京时间3月19日4时-6时,全球瞩目的NVIDIA GTC 2024于美国加州圣何塞SAP中心正式开幕,NVIDIA 创始人兼首席执行官黄仁勋身着标志性皮衣,带来《见证AI的变革时刻》主题演讲。
演讲聚焦于NVIDIA在气候科学、无线电科学、AI、机器人、自动驾驶等领域的贡献与未来展望。黄仁勋强调了加速计算对于AI在非IT行业的应用,及其对于解决行业问题的重要性。
加速计算已经来到了临界点,通用计算后劲不足,需要新的计算方式。黄仁勋表示,生成式AI是这个时代的决定性技术,Blackwell GPU是推动这场新工业革命的引擎。
这个名为Blackwell的新处理器在处理支持人工智能的模型方面可以将速度提高数倍。这包括被称为训练阶段的技术开发过程和称为推理阶段的技术运行过程。
Blackwell可使世界各地的机构都能够在万亿参数的大语言模型(LLM)上构建和运行实时生成式 AI,其成本和能耗较上一代产品降低多达 25 倍。
"Hopper很棒,但我们需要更大的GPU",伴随着黄仁勋的演讲,基于全新Blackwell架构的最新一代AI芯片——NVIDIA B200 GPU正式亮相。
左:B200(Blackwell),右:H100(Grace Hopper)
NVIDIA B200 GPU采用4纳米(4NP)工艺蚀刻而成,整合了两个独立制造的裸晶(Die),并由10TB/s带宽连接,共有2080亿个晶体管,提供高达20 petaflops的FP4八精度浮点运算能力。
相比之下,NVIDIA H100 GPU的晶体管数量为800亿个,提供4 petaflops的FP4八精度浮点运算能力,NVIDIA B200 GPU直接实现了5倍性能提升,实现了又一次重大突破。
值得注意的是,Blackwell B200 并不是传统意义上的单一 GPU。它由两个紧密耦合的芯片组成,这两个芯片通过 NVIDIA 高带宽接口连接进行连接,以确保它们能够作为单个完全一致的芯片正常运行。
紧接着,黄仁勋展示了旨在巩固NVIDIA在人工智能计算领域主导地位的超级芯片——30倍LLM推理加速的NVIDIA GB200,让AI公司能够训练更大、更复杂的模型。
过去,训练一个拥有1.8万亿参数的模型需要8000个Hopper GPU和15兆瓦的功耗;如今,同样的工作只需要2000个Blackwell GPU就能完成,功耗仅为4兆瓦。并且,取决于各种Blackwell设备的内存容量和带宽配置,工作负载的实际性能可能会更高。
相比于NVIDIA H100 GPU,NVIDIA GB200不仅可以带来30倍LLM推理加速,更可是将成本和能源消耗降低至1/25。在GPT-3(1750亿参数)大模型基准测试中,GB200的性能是H100的7倍,训练速度是H100的4倍。
随后黄仁勋还宣布一个名为GR00T的项目,旨在进一步推动英伟达在机器人和具身智能的突破性工作。
Project GR00T是一个人形机器人模型,英伟达与Jetson Thor一起生产,Jetson Thor是一款SoC,也是Nvidia Isaac的升级版。GR00T机器人将理解自然语言并模仿人类动作来学习灵活性。Jetson Thor运行基于 Blackwell的GPU,可在8位数据处理中提供800 teraflops的AI性能。
由该平台驱动的机器人将被设计为能够理解自然语言并模仿机器人的动作,观察人类行为。这使 GR00T 机器人能够快速学习协调性、灵活性和其他技能,以导航、适应现实世界并与之互动——并且绝对不会导致机器人叛乱
“为通用人形机器人构建基本模型是我们当今人工智能领域能够解决的最令人兴奋的问题之一,”黄仁勋说。“这些使能技术正在融合在一起,使世界各地领先的机器人专家能够在人工通用机器人领域取得巨大飞跃。”
最后黄仁勋说,我们正站在新一代AI技术的门槛上。下一代AI将不仅仅通过阅读语言模仿人类,而是通过观察、学习和理解物理世界来提高其能力。我们与西门子的合作关系,以及我们在自动驾驶和机器人技术方面的进步,都是朝着这一目标迈进的实证。NVIDIA正引领一场新的工业革命,通过加速计算和AI生成内容(AIGC),开启了数据中心市场的新纪元。我们所追求的,不仅仅是技术的进步,而是通过技术创新,推动社会进步和行业变革。
领取专属 10元无门槛券
私享最新 技术干货