关键词:
光片上网络
神经拟态计算
光交换单元
脉冲神经网络
片上光学神经元
摘要:
随着近年来机器学习应用范围的不断扩展,海量的数据与运算对计算机处理器的数据互连能力、处理能力、学习能力等提出了更高的需求,促进了以处理器为代表的片上互连方式和计算体系结构的革新。在过往处理器技术的发展过程中,缩小晶体管尺寸以及提高工作频率是提升单核处理器性能的主要手段。受到物理极限限制,进一步缩小晶体管尺寸变得愈发困难,过高的工作频率亦会导致处理器能效的降低。片上网络(Network on Chip,No C)将组网思想移植到芯片设计中,将片上众多的IP(Intellectual Property)核通过网络进行高效互连,具有通信性能佳、重用性好、扩展性高、并行能力强等一系列优点。随着超大规模集成电路工艺的特征尺寸进一步缩小,采用电互连的片上网络因金属导线的寄生效应、延迟、串扰和能耗等问题,系统性能的提升受到严重限制。光片上网络(Optical Network-on-Chip,ONo C)采用光互连有效地解决电互连存在问题,具有更高的带宽密度、更小的通信时延、更低的系统功耗等优势。当下普遍采用的冯·诺依曼计算体系由于分立的存储与计算单元之间通信延迟导致的“访存墙”问题限制了未来处理器计算能力的进一步发展。神经拟态计算受脑神经机制和认知行为启发,借鉴生物脑处理模式使机器具有自适应性和自我学习能力,突破了传统冯·诺依曼结构访存瓶颈,在提高信息处理速率的同时显著降低功耗,成为近年来人工智能和计算机科学领域研究的热点。面向神经拟态计算的光片上网络利用光信号多维并行能力和高能效处理能力构建片上光脉冲神经网络,具有自适应性、稳健性和快速性的优势,并有效避免了传统数字光计算的芯片集成困难及模拟光计算的噪声积累等问题,有望成为新一代面向机器学习的硬件突破方向。本文以设计面向神经拟态计算的光片上网络为目标,针对现有人工智能实现方法在能效比、连接度、扩展性、智能化等方面问题,结合片上光计算和片上光互连的高带宽、高速率、低功耗等优势,通过理论研究、策略与方案设计、实验验证等方式研究片上光学神经元构建、光神经网络片上互连架构设计、片上光脉冲神经网络训练算法优化等,利用器件级仿真、网络级仿真、原型流片测试及功能性实验验证并评估方案性能,构建低能耗、高并行、大规模、易训练的光神经拟态计算片上网络体系。论文的主要工作及研究成果如下:(1)对面向机器学习的光计算相关研究进展进行了较为全面的综述,从深度学习、概率图、脉冲神经网络等神经网络模型出发对现有设计方案进行了整理和归纳,重点对机器学习的光学实现进行了分析和研究,介绍了相关理论基础、技术路线、研究内容,总结现有面向人工智能的光计算存在的挑战,并结合硅基光电子集成技术的新进展提出光神经网络构建的改进方向。(2)针对当前片上人工神经元在神经拟态网络中的扩展性不足、片外集成的激光器的集成难度高、能耗效率不足等问题,利用支持大规模硅基光电子片上集成的In As/Ga As量子点激光器,通过数值模型对能级跃迁速率方程进行表征,优化量子点激光器的性能参数,对LIF神经元模型进行匹配实验。仿真结果表明,基于量子点激光器的片上光学神经元具有人工神经元的脉冲生成、加权、整合、阈值处理、复位重置等能力,脉冲的时间分辨率达到皮秒级。此外,利用构建的基于量子点激光器的人工神经元,对一个四输入的片上神经元进行了建模和仿真测试,根据不同的权重对输出脉冲信号幅度的配置,验证了该基于量子点激光器神经元的激发与响应功能,为进一步构建大规模片上网络奠定基础。(3)针对电信号注入的片上网络光电转换功耗开销、相干光注入的片上网络波长利用率低等问题,结合非相干光信号注入类型片上网络的基本架构,设计了生物启发式光神经拟态片上网络架构,具体分为神经元、神经元组、神经团、蜂窝状功能区及区域协同系统五级,通过层级化、区域化的调度与协调减少波长开销,利用波分复用、空分复用等多种方式提高系统并行程度,并克服现有人工神经网络神经元间连接度低、扩展性差的问题。结合当前脉冲神经网络在经典模型下通过双层即可实现的结构特点,设计了双层神经元间支持波分复用的片上全连接结构的通用构造方法,流片验证了LACE片上全连接结构的可实现性与功能性,为构建高并行、大规模光神经拟态片上网络架构提供实物依据。(4)针对当前脉冲神经态网络训练算法的可解释性差及片上光学元件在规模化集成时的硬件加载问题,基于微环谐振器的片上光学突触相干效应模型和LACE片上全连接结构硬件的实测损耗数据,提出了脉冲神经网络脉冲时序依赖可塑性算法的权重矫正方法。该脉冲神经网络采用生物启发式光神经拟态片上网络架构,面向具有兴奋性神经元层和抑制性神经元层的双层神经网络,结合MR权重实现范围的数学表征对STDP学习算法进行优化,配合训练参数的进一步调整,使该神经拟态片上网络在脉冲编码下的MNIST识别准确率最高达到9