神经形态芯片的发展初具雏形

长期以来,人脑能够以最少的能量处理大量信息的能力使科学家着迷。而在基于硅的计算领域中,从未有过这样的效率。处理大量数据需要大量电能。而且,当人工智能(AI)及其深度学习和机器学习进入现实时,问题就加倍恶化。神经形态芯片发展有助于解决这些问题。

新兴的神经形态芯片设计可能会改变所有这一切。加州理工学院教授卡弗·米德(Carver Mead)于1980年代后期提出了类脑计算架构概念,正在突然形成。神经形态框架采用了截然不同的芯片设计和算法,以模仿人脑的工作方式,同时仅消耗当今微处理器的一小部分能量。该计算模型直接针对现有计算框架的低效率(即冯·诺依曼瓶颈)。

神经形态芯片初具雏形
英特尔将其Loihi的“片上大脑”神经形态芯片形成一个具有800万个人造神经元的“ Pohoiki Beach”神经形态系统。

安大略省滑铁卢大学系统设计工程系和哲学系教授Chris Eliasmith说:“神经形态芯片引入了当今的硬件(包括GPU和大多数AI加速器)所不具备的并行计算水平。尽管当今的深度学习系统依赖于使用常规的现场可编程门阵列(FPGA),中央处理器(CPU)和图形处理单元(GPU)运行基本神经形态系统的软件,但是专门为完成这些任务而设计的神经形态计算芯片可能会彻底改变计算方式。神经形态芯片充斥着人造神经元和人造突触,它们模仿人脑内发生的活动峰值,并且它们在芯片上处理方式导致了更智能、更节能的计算系统。

商用神经形态计算的影响可能是巨大的。该技术在广泛领域产生了影响,包括图像和语音识别,机器人和自动驾驶汽车,物联网(IoT)中运行的传感器,医疗设备,甚至是人造人体器官。设备自身执行计算和学习的能力,再加上超低能耗,可能会极大地改变设备性能。

大脑建模

人脑是进化的杰出产物。可在几毫秒内处理复杂任务。尽管当今的CPU和GPU在执行串行处理任务方面可以大大胜过人类大脑,但将数据从内存移动到处理器然后再返回的过程不仅会产生延迟,还会消耗大量能量。一台典型的台式计算机消耗的功率约为200瓦,而某些超级计算机的消耗功率则高达20兆瓦。

神经形态系统的价值在于它们能异步地进行片上处理。就像人脑使用特定的神经元和突触以最大效率执行任何给定任务一样,这些芯片也使用事件驱动的处理模型来解决复杂计算问题。由此产生的尖峰神经网络(之所以称为“尖峰神经网络”,是因为它在称为“尖峰列车”时域中对数据进行编码)与GPU上的深度学习网络不同。现有的深度学习方法依赖于更基本的大脑模型处理任务,它们必须以不同于神经形态芯片的方式进行训练。

英特尔神经形态计算实验室的研究员加里克·奥查德(Garrick Orchard)表示:“如果我们研究生物学,就会看到令人难以置信的能源效率。这是我们希望在人造系统中模仿的东西。神经形态芯片中的人工神经元和突触可堆叠成层并插入多个核中。“这个想法是,通过从生物学中汲取灵感,并试图更好地理解对于低功耗计算至关重要的原理,我们可以在硅片中模仿这些特性并突破可能的极限。”

但是,吸引人的不仅仅是降低能耗。当今的CPU和GPU(尤其是在自动驾驶汽车和其他独立系统中使用的CPU和GPU)通常依靠外部系统(主要是云)进行一些处理。对于必须做出瞬间决策的车载系统而言,产生的延迟是一个问题。

因此, 云计算和边缘计算的需求不会随着神经形态芯片出现消失,自治系统将能够处理车载其他关键计算任务。在图像处理等领域,这可以产生指数级改进。基于尖峰神经网络的延迟增益是一项基本优势,它超越了当今GPU系统。

神经形态系统使用事件驱动的处理模型来解决复杂的计算问题,从而异步执行片上处理。

神经形态芯片也具有不断学习能力。例如,机械臂可以学会识别不同的物体,如果需要更大的抓力,则系统将进行相应调整;如果需要更轻的触摸,则系统也将进行调整。

新技术将产生革命性突破。研究人员已经开始探索开发假肢的可能性,这些假肢可以使截肢者有触觉,可以帮助中风或阿尔茨海默病患者的脑植入芯片,可以自我修复的电子皮肤,甚至可以是可以恢复视力的视觉传感器(基本上是视网膜植入物)。科学家们还正在探索概率神经形态系统,该系统可以高度准确地预测地震。神经形态设计可以实现过去不可能实现的能力。

变得更聪明

神经形态芯片不会取代当今的CPU和GPU,更有可能联合使用。这将扩展我们使用现有数字技术(尤其是在边缘网络)的方式。市场分析机构VLSI Research首席执行官G. Dan Hutcheson表示:“今天的计算机在处理方面非常出色。它们将继续胜过神经形态计算系统执行常规处理任务。这些技术是互补的,因此它们将共存。”

研究与开发工作开始产生切实的成果。例如,英特尔实验室开发了Loihi,这是一种使用尖峰神经网络体系结构的研究芯片。该处理器包含128个神经形态内核,三个Lakemont(Intel Quark)CPU内核以及一个片外通信网络。该芯片具有高度可配置性,并且可以针对特定任务进行优化。这使其对专用设备有吸引力。英特尔神经形态研究组的80多名成员(包括大学,政府实验室,神经形态初创公司和《财富》 500强公司)现在正在尝试Loihi。

IBM开发了一种名为TrueNorth的神经形态芯片。它有4,096个核心,每个核心包含256个神经元,而每个神经元又包含256个突触。该微处理器的功率密度是传统冯·诺依曼处理器的1 / 10,000。它通过尖刺神经网络实现了这一效率。合成神经元中的活动仅在需要的时间和地点发生。这使得该芯片特别适合于高速和低能耗图像处理和分类任务。Sebastian说,尽管TrueNorth是一种实验性芯片,但IBM仍在继续积极研究神经形态技术,包括专注于芯片学习的方法。

Hutcheson表示,全球有50多家其他AI初创公司正在积极开发神经形态芯片和技术,以实现广泛用途。当所有这些都发生时,其他公司正在开发软件和系统以优化芯片性能。例如,埃利亚史密斯(Eliasmith)还是一家名为Applied Brain Research的初创公司的负责人,他开发了用于对神经形态芯片进行编程的算法和软件。这包括用于深度峰值网络,峰值和非峰值自适应控制,递归神经网络,片上学习以及峰值和非峰值分层强化学习算法。

神经形态技术仍处于起步阶段。没有商业产品或杀手级应用。然而,该领域正在迅速发展。

同时,在研究实验室中,科学家正在对该技术进行进一步的试验。例如,在加州大学洛杉矶分校,斯蒂格和化学教授詹姆斯·金泽夫斯基开发了神经形态系统,可以通过使用变化输入波“忘记”人工突触。Gimzewski解释说,借用了人类心理学的方法,“我们正在建立可以通过忘记不重要的事物而更有效地进行自适应电路。” 两人还开发了纳米线技术,可模仿大脑中的数百万个连接。

新模式

目前,神经形态技术还处于起步阶段。没有商业产品,没有杀手级应用。但是,该领域正在迅速而彻底地推进。商业化的芯片应该会在未来一两年内开始出现,而这项技术很可能在未来三到五年内实现真正的腾飞。神经形态芯片可能会对边缘网络设备和IoT物联网系统产生重大影响。

世界不是线性的。它不是确定性的。它不会给出明确的答案。基于冯·诺依曼的传统计算系统主要处理高速,可预测的确定性过程。它们能很好地执行这些任务,但是当事情变得复杂时就会陷入困境。神经形态计算旨在开拓一个全新的,尚未探索的计算领域。它可以让我们做一些过去无法想象的事情。

你可能感兴趣的文章:

上一篇:

下一篇:


标签