神经网络十分强大,但他们需要大量的计算能耗。麻省理工学院的工程师现在开发了一种新型芯片,可以将神经网络的功耗降低95%,这可能会使得它们在电池驱动的可移动设备上运行。
智能手机在这些年变的越来越智能,更多的人工智能技术为其提供服务,如数字助理和实时翻译。但通常情况下,处理这些服务数据的神经网络都在云端进行,通过智能手机的数据实现来回传送。
这并不理想,因为它需要大量的通信带宽,并且意味着潜在的敏感数据正在传输并存储在用户控制范围之外的服务器上。但是,GPU神经网络所需的巨大能量需要运行,这使得在有限的电池电量下运行的设备中实现它们是不切实际的。
麻省理工学院的工程师现在设计了一款芯片,通过大幅减少在芯片内存和处理器之间来回传输数据的需求,可以将功耗降低高达95%。
神经网络由成千上万层互相连接的人造神经元组成。每个神经元从它下面的层中的多个神经元接收输入,并且如果组合的输入通过某个阈值,则它将输出发送到其上的多个神经元。神经元之间连接的强度由训练期间设定的权重决定。
这意味着对于每个神经元,芯片必须检索特定连接的输入数据以及来自存储器的连接权重,将它们相乘、存储结果,然后为每个输入重复该过程。这需要大量的数据移动,同时也会耗费大量的能源。
新的MIT芯片消除了这种情况,它是使用模拟电路在存储器内并行计算所有输入。这显著减少了需要推动的数据量并且节省了大量的能源。
该方法要求连接的权重是二进制的,而不是一个范围的值,但以前的理论工作表明这不会大面积影响准确性,研究人员发现该芯片的结果一般在传统的非结果的2%到3%运行在标准计算机上的二进制神经网络。
这并不是研究人员首次创建能够减少神经网络功耗的芯片,但这是该方法首次用于运行强大的基于图像的AI应用的卷积神经网络。
领取专属 10元无门槛券
私享最新 技术干货