芯片上的光学卷积神经网络
本文提出一种新的光学神经网络(ONN)框架,模拟人眼视网膜中心附近的高分辨率,实现了图像分类估计的标量不变性,并且通过同维孪生(Siamese)结构将不同缩放级别的图像输入通过相同的卷积神经网络(CNN)进行处理,最终的结果可用于提高现有算法中的准确性。
May, 2018
本文简要介绍了卷积神经网络(CNN),讨论了最近发表的论文和开发这些出色的图像识别模型的新技术。CNN 主要用于解决难以处理的图像驱动的模式识别任务,并采用精确而简单的结构,为人工神经网络提供了一个简化方法。
Nov, 2015
卷积神经网络(CNN)在面对声音识别、自然语言处理或计算机视觉等具有挑战性的任务时被广泛使用。本文提出了一种新颖的 CNN 优化和构建方法,基于剪枝和知识蒸馏,旨在确定卷积层的重要性,以减少计算要求,并在资源受限设备上部署。经过彻底的实证研究,包括最佳数据集(CIFAR-10、CIFAR-100 和 Imagenet)和 CNN 架构(VGG-16、ResNet-50、DenseNet-40 和 MobileNet),我们评估了该提议,并将准确度损失和剩余参数比率作为客观指标来比较 OCNNA 与其他最先进的方法的性能。与其他 20 多种卷积神经网络简化算法相比,我们的方法取得了出色的结果。因此,OCNNA 是一种竞争性的 CNN 构建方法,可以简化神经网络部署到物联网或资源有限设备的过程。
Dec, 2023
本篇论文提出新的光学神经网络架构,并利用光学的独特优势实现计算速度和能源效率的显著提升,最高分别达到目前技术水平的两个和三个数量级,此外使用可编程纳米光子处理器进行实验验证。
Oct, 2016
本文研究量子卷积神经网络与经典卷积神经网络、人工 / 经典神经网络模型之间的潜力差异,研究表明,根据输入大小和批量大小,量子卷积神经网络有可能在准确性和效率上胜过经典卷积神经网络和人工神经网络,表现出作为机器学习领域中强大工具的潜力。
Jul, 2023
本文介绍了一种新的变换层:quanvolutional layer,它可以通过在局部应用数个随机量子电路的方式对输入数据进行变换,类似于卷积过滤层。在 MNIST 数据集上的实验结果表明,用 QNN 可以比传统 CNN 享有更高的测试集精度和更快的训练速度。
Apr, 2019
本综述介绍了卷积神经网络(CNN)在计算神经科学中作为良好模型的特征,以及这些模型如何在理解和实验生物视觉方面提供启示,并讨论了在基本物体识别之外的视觉研究中使用 CNN 的新兴机会。
Jan, 2020
本研究探讨了在量子计算环境中使用多尺度纠缠重整化 ANSATZ 计算的量子卷积神经网络 (QCNN) 和将 QCNN 层添加到现有的 CNN 学习模型中以提高性能的方法,并通过与 TensorFlow Quantum 平台中使用的 MNIST 数据集的训练验证了 QCNN 模型的高效学习能力。
Sep, 2020
本文提供了对现有技术的卷积神经网络分析和拓扑构建的全面概述,并描述和评估了一些层次分类器。此外,本文还开发了一种可视化分类错误的新方法,并在 CIFAR-100 上量化了一些结果,如在精度方面较小批量大小、平均集成、数据增强和测试时间转换等的积极影响。本文还开发了一个模型,它只有 100 万个学习参数,适用于 32x32x3 和 100 类输入,并在基准数据集 Asirra、GTSRB、HASYv2 和 STL-10 上击败了现有技术。
Jul, 2017