AI神经网络很快就可在智能手机上训练了

深度学习是一个能源密集型领域,它的应用受到了限制。但如果这些模型能够以更高的能源效率来运行呢?这是许多研究人员提出的问题,而IBM的一个新团队可能已经找到了答案。
本周在NeurIPS(神经信息处理系统,最大的年度AI研究会议)上提出的新研究 展示了一种过程,该过程可以很快将表示深度学习中的数据所需的位数从16个减少到4个而不会损失准确性。
与先前提出的针对权重和激活张量的4位量化的解决方案相结合,4位训练在各个应用领域都显示出了非显著的准确性损失,同时实现了显着的硬件加速(比最先进的FP16系统高出7倍) 。
IBM研究人员使用他们新颖的4位训练对计算机视觉,语音和自然语言处理等领域的各种深度学习模型进行了实验。他们发现,模型性能的准确度实际上损失有限,而过程的速度却快了7倍以上,能源效率也提高了7倍。
因此,这项创新可以将用于训练深度学习的能源成本降低七倍以上,甚至可以在像智能手机这样的设备上训练AI模型。由于所有数据都将存储在本地设备上,因此这将大大提高隐私性。获取更多前沿科技信息访问:https://byteclicks.com
尽管这很令人兴奋,但我们距离4位学习还有很长的路要走,因为本文仅模拟了这种方法。要使4位学习成为现实,就需要4位硬件而这种硬件目前还不存在。
不过,它可能很快就会出现。领导这项新研究的IBM研究员和高级经理Kailash Gopalakrishnan告诉MIT Technology Review,他预测在三到四年内就能设计出4位硬件。