高层速读
关键信息:IBM的研究人员正在研究一种专门用于运行神经网络的芯片,该芯片将比GPU的能效高280倍,每平方毫米的操作次数将达到100倍,使数据在存储的同时得到处理,极大地提高了处理效率。
关键意义:该芯片可以将人工智能应用到个人设备,打造个性化AI,同时也可以使数据中心更加安全、高效。
直到本世纪初,研究人员才意识到,为视频游戏设计的GPU图形处理单元可以被用作硬件加速器,以运行更大的神经网络。因为这些芯片能够并行进行大量计算,而不是像传统CPU那样按顺序处理它们。
使用GPU运行神经网络已经在人工智能方面取得了惊人的进步,但这两者的合作还不是很完美。IBM研究人员正在研究一种专门用于运行神经网络的新芯片,以提供更快、更有效的替代方案。
GPU的引入促进该领域的进展,但这些芯片仍然将处理和储存分开,这意味着大量的时间和精力都花在了两者之间的数据传输上。问题的存在促使了人们对新的存储技术进行了研究,研发一种既能存储和处理同一地点的大量数据,又能提高速度和能源效率的技术。
IBM这种新的存储设备依赖于调整电阻级别来存储模拟的数据——即以连续规模存储数据,而不是以数字存储器的二进制 1 和 0。因为信息存储在存储单元的电导中,通过简单地传递一个电压并让系统通过物理来进行计算是可能的。
但是这些设备固有的物理缺陷使它们的行为不一致,这意味着使用它们来训练神经网络的分类精度明显低于使用GPU。
“我们可以在一个比GPU更快的系统上进行训练,但如果训练不那么准确,是没有用的,”领导该项目的IBM研究博士后研究员Ambrogio说,“到目前为止,还没有证据表明使用这些新设备的可能性和像GPU一样精确。”
在上周发表在Nature杂志上的一篇论文中,Ambrogio和他的同事们描述了他们是如何利用新兴的模拟存储和更传统的电子元件组合来创造出一种芯片,这种芯片可以与GPU的精度相匹配,同时运行速度更快,而且只消耗了一小部分能量。
为了测试他们的设备,研究人员对他们的网络进行了一系列流行的图像识别基准测试,达到了与谷歌领先的神经网络软件TensorFlow相当的精确度。
他们预测,一个完全内置的芯片将比GPU的能效高280倍,而且每平方毫米的操作次数将达到100倍。
研究人员表示,他们希望在投入时间和精力打造完整的芯片之前,先检查一下这种方法是否可行。
但这样一个专用芯片有什么作用呢?
研究人员说,有两个主要的应用:将人工智能应用到个人设备上;使数据中心更加高效。而直接在个人设备上实现人工智能的好处是,将会阻止用户在云端分享他们的数据,从而增加隐私安全。
但更令人兴奋的前景是人工智能的个性化。
“在你的汽车或智能手机上实现的这个神经网络可以不断地从你的经验中学习。你的手机将有专门属于你的声音,或者你的车有专属你的驾驶方式……”
分享这篇文章
与同仁共同探讨AI行业动向
往期文章
「AI商业报道」现已入驻
知乎号 | 头条号 | 百家号 | 网易号 | ZAKER
领取专属 10元无门槛券
私享最新 技术干货