国外

麻省理工学院的研究人员开发出一种专用芯片,可以将神经网络计算的速度提高三到七倍,同时将功耗降低94%到95%。这可以使智能手机本地运行神经网络变得切实可行将它们嵌入到家用电器中人工智能系统的最新进展,如语音或面部识别程序,都来自神经网络,简单信息处理器密集互连的网格,通过分析大量的训练数据来学习执行任务。网络很大,而且它们的计算能耗很高,所以它们对手持设备来说不太实用大多数依赖神经网络的智能手机应用程序只需将数据上传到互联网服务器,互联网服务器处理它并将结果发送回手机现在,麻省理工学院研究人员开发了一种专用芯片,可将神经网络计算的速度提高3到7吨imes优于其前辈,同时降低功耗94%至95%这可能使在智能手机上本地运行神经网络甚至将其嵌入家用电器变得可行“通用处理器模型是芯片的某些部分存在内存并且在芯片的另一部分有一个处理器,当你进行这些计算时,你会在它们之间来回移动数据,“麻省理工学院电气工程和计算机科学研究生Avishek Biswas说道,他领导了这个新芯片。开发“由于这些机器学习算法需要这么多的计算,这种数据的来回传输是能量消耗的主要部分但是这些算法所做的计算可以简化为一个特定的操作,称为点积我们的方法是,我们可以在内存中实现这​​个点产品功能,这样你就不需要来回传输这些数据吗?“Biswas和他的论文顾问,麻省理工学院工程学院院长和Vannevar Bush电气工程与计算机科学教授Anantha Chandrakasan在本周国际固态电路会议上发表的论文中描述了新芯片。返回模拟神经网络通常安排在层网络的一层中的单个处理节点通常将从下面层中的几个节点接收数据,并将数据传递到上层中的多个节点。节点之间的每个连接都有自己的“权重”,表示角色的大小。一个节点的输出将在下一个训练中进行计算,网络是设置这些权重的问题从下面一层中的多个节点接收数据的节点将每个输入乘以相应连接的权重并将结果相加操作 - 乘法的总和 - 是点积的定义如果点积超过某个阈值旧的值,节点会将它传送到下一层的节点,通过它们自己的权重连接神经网络是一种抽象:“节点”只是存储在计算机内存中的权重计算点积通常涉及从中获取权重内存,获取相关的数据项,将两者相乘,将结果存储在某处,然后对节点的每个输入重复操作假定神经网络将有数千甚至数百万个节点,那就是要移动的大量数据但是这一系列操作只是大脑中发生的事情的数字近似,其中沿着多个神经元传播的信号在“突触”或神经元束之间的间隙相遇神经元的激发速率和穿过突触的电化学信号。对应数据值和权重MIT研究人员的新芯片通过更忠实地复制大脑来提高效率在芯片中,节点的输入值被转换进入电压然后乘以适当的权重只有组合的电压被转换回数字表示并存储以供进一步处理芯片因此可以在一个步骤中计算多个节点的点积 - 一次16个,在原型中,而不是每次计算在处理器和内存之间穿梭所有或没有系统的一个关键是所有权重都是1或-1 这意味着它们可以作为简单的开关在存储器内实现,可以关闭电路或使其保持开放最近的理论工作表明仅用两个权重训练的神经网络应该失去很少的准确性 - 大约1%到2%Biswas和Chandrakasan的研究预测结果在实验中,他们在传统计算机上运行神经网络的全部实现,并在其芯片上运行二进制当量等效。他们的芯片结果通常在传统网络的2%到3%之间“这是一个很有希望的实际 - 用于深度学习应用的基于SRAM的内存模拟计算的世界演示,“IBM人工智能副总裁Dario Gil说道。”结果显示了使用存储器阵列实现卷积运算的节能实现的令人印象深刻的规范它肯定会开启了为图像和v使用更复杂的卷积神经网络的可能性未来物联网[物联网]的意识形态分类“资料来源: