可编程衍射与数字神经网络的集成
光学拍摄图像去噪器是一种速度快、能耗低的方法,通过物理上分散光学模式来去除不同噪音特征,可以高效地清除图像中的噪音和伪影,适用于各种图像显示和投影系统。
Sep, 2023
使用光学全衍射深度神经网络 (D2NN) 进行手写数字分类和成像透镜功能的学习,可以在光速下执行复杂函数,该技术具有潜在的光学图像分析和对象分类应用,并能够实现独特的任务。
Apr, 2018
本文介绍了利用深度学习设计 Diffractive Deep Neural Networks (D2NNs) 进行光计算,在特征工程和集成学习方面的改进,以提高其图像分类准确度,并在 CIFAR-10 测试图像上达到了 61.14%和 62.13%的盲测试准确率,是目前任何衍射光神经网络设计方法在相同数据集上所取得的最高推理准确度,并可能提供跨越衍射光影像分类和机器视觉系统应用空间的重大飞跃
Sep, 2020
提出并展示了一种具有具有空间可重构迷向指数的二维可编程波导器件,能够通过自由传播的波在器件内进行计算,具有进行并行调制的能力,实现了比以往的离散型组件更大规模的光子芯片,为光学处理、智能感应、光谱学和光通信等广泛应用领域带来了更紧凑、更多功能的光子系统。
Feb, 2024
光衍射神经网络(DNN)是光神经网络(ONN)的一种子集,展现了与电子网络相当的实力。本研究引入了混合衍射神经网络(HDNN),这是一种新颖的架构,将矩阵乘法纳入 DNN 中,以充分利用传统 ONN 和 DNN 的优势,以克服光衍射神经网络固有的调制限制。利用单一相位调制层和幅度调制层,经过训练的神经网络在模拟和实验中的数字识别任务中表现出了 96.39% 和 89% 的显著准确性。此外,我们开发了一种称为 Binning Design(BD)的方法,有效缓解了衍射单元采样间隔所造成的约束,大大简化了实验流程。此外,我们提出了一种片上 HDNN,不仅采用分光的相位调制层来提高集成级别,而且显著放宽了器件制造要求,用 1 位量化设计的缓解表面替代了超表面。此外,我们构想了一种全光 HDNN 辅助的病变检测网络,实现的检测结果与模拟预测完全一致。本研究不仅推动了 DNN 的性能提升,还为产业级光神经网络的生产铺平了道路。
Apr, 2024
使用 photon 而非 electron 进行类脑计算的光子神经网络通常能实现更强的计算性能。本文提出了一种全光学图表示学习体系结构,称为衍射图神经网络(DGNN),它基于集成的衍射光子计算单元(DPUs),能够处理图结构数据。DGNN 捕获节点邻域之间的复杂依赖性,并通过图结构上的光速光传递消除非线性过渡函数。该工作为使用深度学习高效处理大规模图数据结构的应用特定集成光学电路设计开辟了一条新的道路。
Apr, 2022
本篇论文提出新的光学神经网络架构,并利用光学的独特优势实现计算速度和能源效率的显著提升,最高分别达到目前技术水平的两个和三个数量级,此外使用可编程纳米光子处理器进行实验验证。
Oct, 2016
最近在图像数据处理方面的研究进展表明,通过机器学习,尤其是深度神经网络(DNNs)的使用,可以通过数据驱动的人工智能为辐射探测器和成像设备提供新的优化和性能增强方案。我们概述了光子源的数据生成、基于深度学习的图像处理方法以及深度学习加速的硬件解决方案。目前大多数现有的深度学习方法是离线训练的,通常需要大量的计算资源。然而,一旦训练完成,DNNs 可以实现快速推理速度,并且可以部署到边缘设备上。边缘计算是一种新趋势,它具有较低的能量消耗(数百瓦或更少)和实时分析能力。虽然以往通常用于边缘计算的基于电子的硬件加速器(从中央处理器(CPU)到应用特定集成电路(ASICs)的通用目的处理器)正不断接近性能极限,在延迟、能量消耗和其他物理约束方面存在限制。这些限制催生了下一代模拟神经形态硬件平台,如光学神经网络(ONNs),用于高并行、低延迟和低能量计算,以提高深度学习加速。
Nov, 2023
实现了全自学习、可重构的光学信号处理器,基于光学神经网络芯片,具有智能响应、多功能(包括多通道光开关、光学多输入 - 多输出解调器和可调光学滤波器)等特点,具有巨大的人工智能与光学信号处理的潜力。
Feb, 2019