散射光学网络的集成学习
使用光学全衍射深度神经网络 (D2NN) 进行手写数字分类和成像透镜功能的学习,可以在光速下执行复杂函数,该技术具有潜在的光学图像分析和对象分类应用,并能够实现独特的任务。
Apr, 2018
使用 photon 而非 electron 进行类脑计算的光子神经网络通常能实现更强的计算性能。本文提出了一种全光学图表示学习体系结构,称为衍射图神经网络(DGNN),它基于集成的衍射光子计算单元(DPUs),能够处理图结构数据。DGNN 捕获节点邻域之间的复杂依赖性,并通过图结构上的光速光传递消除非线性过渡函数。该工作为使用深度学习高效处理大规模图数据结构的应用特定集成光学电路设计开辟了一条新的道路。
Apr, 2022
P-D2NN 设计是一种金字塔结构的衍射光学网络,专门优化了单向图像放大和缩小的任务,通过金字塔缩放的衍射层实现了高保真度的放大或缩小图像操作,并能在大范围的光照波长下保持其单向图像放大 / 缩小功能,可用于设计特定任务的视觉处理器。
Aug, 2023
光学成像和传感系统基于衍射元件取得了巨大的进展,最近使用深度学习和数字神经网络的研究努力使衍射处理器与数字神经网络合作优化,建立了输入电磁波与后端处理数字化信息之间的新的 “衍射语言”,从而为各种应用提供了巨大的潜力。
Jun, 2024
光衍射神经网络(DNN)是光神经网络(ONN)的一种子集,展现了与电子网络相当的实力。本研究引入了混合衍射神经网络(HDNN),这是一种新颖的架构,将矩阵乘法纳入 DNN 中,以充分利用传统 ONN 和 DNN 的优势,以克服光衍射神经网络固有的调制限制。利用单一相位调制层和幅度调制层,经过训练的神经网络在模拟和实验中的数字识别任务中表现出了 96.39% 和 89% 的显著准确性。此外,我们开发了一种称为 Binning Design(BD)的方法,有效缓解了衍射单元采样间隔所造成的约束,大大简化了实验流程。此外,我们提出了一种片上 HDNN,不仅采用分光的相位调制层来提高集成级别,而且显著放宽了器件制造要求,用 1 位量化设计的缓解表面替代了超表面。此外,我们构想了一种全光 HDNN 辅助的病变检测网络,实现的检测结果与模拟预测完全一致。本研究不仅推动了 DNN 的性能提升,还为产业级光神经网络的生产铺平了道路。
Apr, 2024
最近在图像数据处理方面的研究进展表明,通过机器学习,尤其是深度神经网络(DNNs)的使用,可以通过数据驱动的人工智能为辐射探测器和成像设备提供新的优化和性能增强方案。我们概述了光子源的数据生成、基于深度学习的图像处理方法以及深度学习加速的硬件解决方案。目前大多数现有的深度学习方法是离线训练的,通常需要大量的计算资源。然而,一旦训练完成,DNNs 可以实现快速推理速度,并且可以部署到边缘设备上。边缘计算是一种新趋势,它具有较低的能量消耗(数百瓦或更少)和实时分析能力。虽然以往通常用于边缘计算的基于电子的硬件加速器(从中央处理器(CPU)到应用特定集成电路(ASICs)的通用目的处理器)正不断接近性能极限,在延迟、能量消耗和其他物理约束方面存在限制。这些限制催生了下一代模拟神经形态硬件平台,如光学神经网络(ONNs),用于高并行、低延迟和低能量计算,以提高深度学习加速。
Nov, 2023
光子处理器在能量成本高昂、人工智能计算需求剧增的背景下成为替代传统电子处理器的潜在选择,然而现有的光学神经网络在图像识别准确度上远远低于现代电子神经网络,本研究通过低维重参数模型引入了一种基于大核空间可变卷积神经网络,实现了基于纳米光学结构的光学神经网络在 CIFAR-10 数据集上达到 73.80% 的盲测分类准确度,首次超越现代数字神经网络 AlexNet(72.64%),让光学神经网络跻身于现代深度学习时代。
Aug, 2023
本篇论文提出新的光学神经网络架构,并利用光学的独特优势实现计算速度和能源效率的显著提升,最高分别达到目前技术水平的两个和三个数量级,此外使用可编程纳米光子处理器进行实验验证。
Oct, 2016
本文提出了一种新的设备到系统硬件软件协同设计框架,使用 Gumbel-Softmax 实现了不同 iable 离散映射到 DONN 的前向函数,使得 DONN 在低精度光学设备上表现出显著的优势,并且已在实验中进行验证。
Sep, 2022