这篇文章综述了深度卷积神经网络的架构,介绍了一种数学框架来分析它们的属性,以及讨论了它们的应用。
Jan, 2016
通过提出一种新的方法来实现低内存和计算成本的高阶 Volterra 滤波,在 DCNN 训练的前向和反向传播过程中具有计算优势,并基于该方法提出了一种名为 Higher-order Local Attention Block(HLA)的新型注意力模块,并在 CIFAR-100 数据集上进行了测试,显示了在分类任务中的有竞争力的改进。
Apr, 2024
本研究通过核方法的角度对卷积核网络进行了研究,发现其 RKHS 由补丁之间的交互项的加性模型组成,其范数通过汇聚层促进这些项之间的空间相似性,并提供了泛化界,以说明池化和补丁如何提高样本复杂度保证。
Feb, 2021
本文提出了一种基于波浪变换、线性非线性映射、平移不变性和形变稳定性的特征提取器,可以适用于不同的网络层,并且在网络深度增加时特征越来越具有平移不变性;同时,本文还建立了对带限函数、卡通函数和 Lipschitz 函数等信号类应用的变形敏感度边界。
Dec, 2015
本研究探讨了一层卷积、汇集和降采样操作组成的核的 RKHS,并用它来计算高维函数的一般化误差尖锐的渐近值。结果表明,卷积和池化操作在一层卷积核中如何在逼近和泛化能力之间权衡。
Nov, 2021
本文通过等价于分层张量分解的方式,分析了各种卷积神经网络架构特征的表达效率和归纳偏置,并提供了新的网络设计工具。
May, 2017
本文提出了一种基于多项式扩展的新型函数逼近器 ——π- 网,它是多项式神经网络,通过具有共享因子的张量集合分解来估计自然表示的未知参数,可用于许多任务和信号的表达建模,并在激活函数的辅助下在图像生成、人脸验证和 3D 网格表示学习等任务中实现了最新的结果。
Jun, 2020
本论文提出了一种基于可视化分析的方法,以更好地理解、诊断和改进深度卷积神经网络,并使用一些新的算法和技术来显示神经元和神经元群之间的多个方面和交互作用。
Apr, 2016
本文提出了一种新颖的深度网络形式,该形式不使用点乘神经元,而是依靠一系列投票表来加速基于 CPU 的推理,被称为卷积表(CT),该表在每个图像位置执行蕨操作:将位置环境编码为二进制索引,并使用索引从表中检索所需的局部输出,多个表的结果组合以获得最终输出。
Apr, 2023
本文提出了一种新的卷积神经网络模型,称为双卷积神经网络,该模型通过共享权重参数进行优化,在图像分类领域有着显著的性能提升。在 CIFAR-10,CIFAR-100 和 ImageNet 等图像分类基准测试中,该模型的性能均显著优于其他竞争模型。同时,本文还说明了双卷积神经网络在多方面性能均有体现,既可以构建更准确的模型,又可以以牺牲一定准确性的代价来减少模型的内存占用。
Oct, 2016