IBM将AI芯片研究提升到新水平:直接在内存处理储存数据以提高系统效率

IBM将AI芯片研究提升到新水平:直接在内存处理储存数据以提高系统效率

IBM正在开发一种AI芯片,期望结合计算和内存于单一设备上,改善系统效率来克服所谓的范纽曼瓶颈(Von Neumann bottleneck )以提高系统效率。这一解决方案预计2029年推出,系统效率提高了1000倍。

在传统系统上,运算和内存位于不同的位置。每一次执行运作时,信息会在运算单元和储存单元之间来回移动。如果将两者整合在一起,效率势必提高。现今IBM研究人员已经开发出了200 mm²的芯片,该芯片可以在内存中处理和储存数据来克服这一瓶颈。

IBM希望在研发处理器的同时能与软件开发商紧密合作,共同建构软件。模拟硬件加速套件的两个主要组件,一个是基于Torch库的开源机器学习库,是PyTorch的一个实例,另一个类比设备模拟器。通过该套件,使他们能够开始测试一种在内存内的运算方法,该方法将比起任何现有处理器还能够更快地运行神经网络算法。

IBM还宣布,与Synopsys已成为IBM位于纽约州Albany市的AI硬件中心的主要合作伙伴。Synopsys将开发用于高性能硅芯片的IP模块,以及其他用于建构人工智能(AI)应用程序的软件工具。

此外,IBM也将投资在纽约州Albany市的SUNY-Poly校园,新建一座清洁室设施,以推进封装(也称为异构集成)以提高内存近距离互连能力。目的是确保在开发计算核心时,内存带宽也随之增加。这些研究工作集中在细间距叠层技术上,嵌入叠层中的硅桥的实现可在AI芯片之间提供细间距互连。通过将内存与AI芯片堆叠在一起,实现了完整的3D集成。获取更多前沿科技信息访问:https://byteclicks.com

总之,IBM正在开发的处理器将使基于神经网络的AI应用程序(也称为深度学习算法)能够通过将数据存储在内存中的方式更快地响应事件,从而可以更快地处理简单的权重计算。一旦完成,部署在边缘计算平台上的AI推理引擎将特别受益。

要完全实现这个IBM研究项目的收益可能还需要一段时间。这也表明了,在AI应用程序上,整个IT行业仍处在初始阶段,未来的路还很长,后续厂商势必会投入更多心力,为边缘AI带入下一阶段。

上一篇:

下一篇:


标签