使用衍射深度神经网络的全光机器学习
本文介绍了利用深度学习设计 Diffractive Deep Neural Networks (D2NNs) 进行光计算,在特征工程和集成学习方面的改进,以提高其图像分类准确度,并在 CIFAR-10 测试图像上达到了 61.14%和 62.13%的盲测试准确率,是目前任何衍射光神经网络设计方法在相同数据集上所取得的最高推理准确度,并可能提供跨越衍射光影像分类和机器视觉系统应用空间的重大飞跃
Sep, 2020
使用 photon 而非 electron 进行类脑计算的光子神经网络通常能实现更强的计算性能。本文提出了一种全光学图表示学习体系结构,称为衍射图神经网络(DGNN),它基于集成的衍射光子计算单元(DPUs),能够处理图结构数据。DGNN 捕获节点邻域之间的复杂依赖性,并通过图结构上的光速光传递消除非线性过渡函数。该工作为使用深度学习高效处理大规模图数据结构的应用特定集成光学电路设计开辟了一条新的道路。
Apr, 2022
P-D2NN 设计是一种金字塔结构的衍射光学网络,专门优化了单向图像放大和缩小的任务,通过金字塔缩放的衍射层实现了高保真度的放大或缩小图像操作,并能在大范围的光照波长下保持其单向图像放大 / 缩小功能,可用于设计特定任务的视觉处理器。
Aug, 2023
光衍射神经网络(DNN)是光神经网络(ONN)的一种子集,展现了与电子网络相当的实力。本研究引入了混合衍射神经网络(HDNN),这是一种新颖的架构,将矩阵乘法纳入 DNN 中,以充分利用传统 ONN 和 DNN 的优势,以克服光衍射神经网络固有的调制限制。利用单一相位调制层和幅度调制层,经过训练的神经网络在模拟和实验中的数字识别任务中表现出了 96.39% 和 89% 的显著准确性。此外,我们开发了一种称为 Binning Design(BD)的方法,有效缓解了衍射单元采样间隔所造成的约束,大大简化了实验流程。此外,我们提出了一种片上 HDNN,不仅采用分光的相位调制层来提高集成级别,而且显著放宽了器件制造要求,用 1 位量化设计的缓解表面替代了超表面。此外,我们构想了一种全光 HDNN 辅助的病变检测网络,实现的检测结果与模拟预测完全一致。本研究不仅推动了 DNN 的性能提升,还为产业级光神经网络的生产铺平了道路。
Apr, 2024
光学成像和传感系统基于衍射元件取得了巨大的进展,最近使用深度学习和数字神经网络的研究努力使衍射处理器与数字神经网络合作优化,建立了输入电磁波与后端处理数字化信息之间的新的 “衍射语言”,从而为各种应用提供了巨大的潜力。
Jun, 2024
最近在图像数据处理方面的研究进展表明,通过机器学习,尤其是深度神经网络(DNNs)的使用,可以通过数据驱动的人工智能为辐射探测器和成像设备提供新的优化和性能增强方案。我们概述了光子源的数据生成、基于深度学习的图像处理方法以及深度学习加速的硬件解决方案。目前大多数现有的深度学习方法是离线训练的,通常需要大量的计算资源。然而,一旦训练完成,DNNs 可以实现快速推理速度,并且可以部署到边缘设备上。边缘计算是一种新趋势,它具有较低的能量消耗(数百瓦或更少)和实时分析能力。虽然以往通常用于边缘计算的基于电子的硬件加速器(从中央处理器(CPU)到应用特定集成电路(ASICs)的通用目的处理器)正不断接近性能极限,在延迟、能量消耗和其他物理约束方面存在限制。这些限制催生了下一代模拟神经形态硬件平台,如光学神经网络(ONNs),用于高并行、低延迟和低能量计算,以提高深度学习加速。
Nov, 2023
本文提出了一种新的设备到系统硬件软件协同设计框架,使用 Gumbel-Softmax 实现了不同 iable 离散映射到 DONN 的前向函数,使得 DONN 在低精度光学设备上表现出显著的优势,并且已在实验中进行验证。
Sep, 2022
光学拍摄图像去噪器是一种速度快、能耗低的方法,通过物理上分散光学模式来去除不同噪音特征,可以高效地清除图像中的噪音和伪影,适用于各种图像显示和投影系统。
Sep, 2023
提出了一种新颖的大卷积核变形材料神经网络(LMNN),通过模型重新参数化和网络压缩来最大化最先进的元件网络(MNN)的数字容量,并明确考虑了光学限制,实验结果证明这种优化的混合设计提高了分类准确性同时减少了计算延迟。
Jul, 2023