老实说,最近还在为中年的油腻有些忧虑。
但突然刷到这条新闻,“谷歌最新发布了测试版Cloud TPU”,面对Google的这个大招,才发觉外面的世界更精彩。
时不我待,放下保温杯,赶到官网去学习。
所谓TPU,是Tensor Processing Unit的缩写。简单讲就是为大计算量而单独设计的硬件加速板卡,并没有与CPU密切整合,而是设计成了一个PCIe I/O总线上的协处理器,可以像GPU一样插到现有的服务器上。
按官方介绍,用2个PCI-E 3.0 x8边缘连接器连接协处理器,可达到16 GB/s的双向带宽。消耗功率达40瓦,远高于传统的PCI-E电源,8位整数运算可达到每秒92万亿次,16位整数运算可达到每秒23万亿次。
谷歌把TPU用在神经网络的推理环节,用于提升人工智能计算的执行效率。
如果有时间,可以去认真研读下面这篇论文:
In-Datacenter Performance Analysis of a Tensor Processing Unit
(由于微信公众号不能在文章中发外部链接,请关注后回复 TPU,我把下载地址推给你)
随着谷歌Cloud TPU的发布,谷歌在云端提供机器学习的服务进一步增强。
云计算的脚步,正迈得越来越快。
领取专属 10元无门槛券
私享最新 技术干货