谷歌本周发布了其公测版Cloud TPU在谷歌云平台(GCP)上的供货情况,该产品可通过Compute Engine基础架构即服务获取。标准的Cloud TPU配置使用第二代谷歌TPU(张量处理单元),仍是在一块主板上集成4个定制ASIC电路和64GB的HBM2显存,旨在对基于TensorFlow的机器学习工作进行加速。用户可以租借一台谷歌Compute Engine虚拟机,享用Cloud TPU资源以及当前提供的谷歌云平台CPU(中央处理器)和GPU(图形处理器)产品。
最初在2016年谷歌I/O大会上亮相的原始TPU是一款为推理工作打造的基于PCIe总线的加速器,而且在大多数情况下,第一版TPU是在内部使用的。而去年夏天,谷歌发布了面向推理和训练的第二代产品,即第二版TPU,勾勒出了将该产品整合进其云服务的计划。随后,谷歌在2017年国际高性能微处理器研讨会(Hot Chips 2017)技术展示中对二者有了更详尽的介绍。
就底层而言,第二版TPU有了很多改变。简而言之,第二代TPU的ASIC电路拥有了双“核”配置,每个“核”都具有能够进行32位浮点运算的标量/矢量运算单元以及128x128混合乘法运算单元,而相比之下,第一版TPU只有单核256x256的MXU和8位整数运算能力。第二版TPU还通过使用HBM显存取代了DDR3,各将8GB的HBM2显存连接到一个“核”上,让每块芯片拥有总计16GB显存,借此改进了内存带宽的瓶颈。
4个这样的ASIC电路组成了一块Cloud TPU主板,最终实现谷歌宣称却未详细说明的高达每秒180次浮点运算的计算能力。正如稍早时候公布的一样,谷歌正在着力于一项TPU Pod开发计划,将其作为自己的终极目标之一,在TPU Pod中,64个Cloud TPU与一系列精密互联的机架结合在一起。谷歌正计划在今年稍晚时候在谷歌云平台提供完整的TPU Pod。
实际上,这一性能在谷歌现有的云端基础架构即服务产品的配合下,迎合了为特殊TensorFlow工作寻找适用于TPU的机器学习性能的开发者的需求。鉴于其是公测版,谷歌在其网站上提供了大量的文件和工具。从许多方面来说,当前的TPU性能为即将推出的TPU Pod疏通了开发渠道,而谷歌在其声明中也进行了相同的暗示。对TPU而言,仍有很多性能有待完善:例如,其尚未支持模型并行,并非所有内置的TensorFlow运算都能进行,而训练加强学习模型、循环神经网络(RNN)或生成对抗网络(GAN)也都有各自的不足。
此前选定的合作伙伴已经能够使用Cloud TPU进行开发,而今天这项声明为一般的谷歌云平台消费者打开了销售之门。消费者从今天起可以在美国以可购买计算时间的形式,通过Compute Engine提供的虚拟机购买到谷歌Cloud TPU,价格为6.5美元(约合41.2元人民币)/小时,增量为一秒。有意购买者可以递交公测版限购请求。
领取专属 10元无门槛券
私享最新 技术干货