光学处理器能够处理复杂的机器学习
神经网络为基础的机器学习是一种开发人工智能的当前热点。《应用物理评论》杂志上的一篇论文提出了一种使用光而不是电来执行神经网络所需计算的新方法。在这种方法中,一个光学的张量核心并行执行矩阵的乘法,提高了当前深度学习模式的速度和效率。
在机器学习中,神经网络接受训练从而执行无监督的决策和对未知数据的分类。一旦神经网络进行了数据训练,它就可以生成一个推理来识别和分类目标以及模式,从而在数据中查找标识。以光学为基础的张量处理单元(TPU)并行存储和处理数据,具有光电互连功能,使光学内存能够高效读取和写入,光子 TPU 可与其他架构进行接口。
作者之一 Mario Miscuglio 说,“我们发现,集成光学平台容纳了高效光存储器可以执行与张量处理单元相同的操作,但它们功耗更小,同时具有更高的吞吐量。如果经过适当培训,可用于以光的速度进行推理。”
大多数神经网络拆解多层相互关联的神经元,旨在模仿人的大脑。实现这些网络的一个有效的方式是将矩阵和向量相乘的复合函数。这种方式可以实现高效的并行计算。科学家可以通过专门用于向量化操作(如矩阵乘法)的体系结构来实现并行计算。但是,如果处理的任务越高级,所需的预测精度越高,神经网络就会变得越复杂。此类网络需要海量的数据用于计算,并需要更多的功耗处理这些数据。
研究结果表明,他们的光学TPU的性能可以高于电学TPU的2-3个数量级。至于像5G网络一样的网络外围,计算端点的分配网络和高吞吐量以及智能任务处理的引擎,光子也可以是一个理想的选择。在网络的外围,数据信号可能已经以光子的形式存在。这些光子来自于监控摄像机、光学传感器和其他源。Miscuglio 说,“光子专用处理器可以节省大量的能源,缩短响应时间并且减少数据中心的流量。”
对于终端用户来说,这意味着数据处理速度要快得多,因为大部分数据是预处理的,这意味着只需要将一部分数据发送到云端或数据中心就可以满足用户的需要。[中国光学期刊]
你可能感兴趣的文章:
- 研究人员开发全球首个全光学多层神经网络有助研发新一代人工智能硬件
- 科学家提出一种快速经济方法直接在培养皿中制造光学芯片
- ETRI开发出世界顶级400-Gbps光学引擎
- 美陆军资助项目开发新型光学器件有望大幅推动光子芯片技术发展
- 高性能光电子集成电路(PIC)的大规模量产
- 研究人员在光子集成研究取得突破实现高速光通信
- 硅光子芯片技术突破仍面临诸多挑战
- 前沿热点:用硅基激光器提高数据容量限制
- 光流控:在片上实验室进行精确光操纵
- 应变光电子学:一种控制光子的新方法
- 新技术为启用全光数据中心网络消除障碍
- RocketChip公司开发高性价比光芯片技术以满足不断增长带宽需求
- 可配置电路技术有望扩大硅光子应用范围
- 物理学家开发出集成光子技术,为释放量子计算机潜力迈出重要一步
- 光子芯片新突破,可编程光子材料可加速光子集成电路的生产