韩国KAIST开发下一代超低功耗处理大语言模型的AI芯片
韩国科学技术院(KAIST)的一个研究小组开发出了世界上第一款能够以极低功耗处理大型语言模型(LLM)的人工智能(AI)芯片。
KAIST PIM 半导体研究中心的团队开发了一款“Complementary-Transformer”AI 芯片,该芯片以 400 毫瓦的超低功耗和 0.4 秒的高速处理 GPT-2 模型。
这款 4.5 平方毫米的芯片采用韩国科技巨头三星电子公司的 28 纳米工艺开发,与全球 AI 芯片巨头 Nvidia 的 A-100 GPU(处理 LLM 需要 250 瓦功率)相比,功耗降低了 625 倍。
该芯片的面积也比 Nvidia 型号小 41 倍,使其能够用于手机等设备。
采用神经形态计算技术,特别是脉冲神经网络(SNNs),是取得这一成就的关键所在。
过去该技术的精度低于深度神经网络(DNNs),主要用于简单的图像分类,但研究小组成功提高了该技术的精度,使之达到了DNNs的水平,从而可应用于LLM。
该团队表示,他们新开发的AI芯片通过融合DNNs和SNNs的独特神经网络架构,并有效压缩LLM的大型参数,在保持精度的同时优化了计算能耗。获取更多前沿科技信息访问:https://byteclicks.com