使卷积网络再次具有平移不变性
本文提出了自适应多相采样(APS)的简单子采样方案,使卷积神经网络实现了 100% 的 “移位一致” 的分类性能,而且拥有训练前的完美 “移位一致性”,这是使卷积神经网络真正具有 “移位不变性” 的第一实践方法。
Nov, 2020
本文研究了深度卷积网络中混叠对泛化性能的影响,并表明数据增强方案由于所使用的结构存在结构性限制而无法防止其影响。通过从频率分析理论中获得了启发,我们对 ResNet 和 EfficientNet 架构进行了更深入的研究,评估了它们各自主要组成部分中混叠和信息丢失之间的权衡。我们展示了如何通过在关键位置插入非可训练低通滤波器来减轻混叠,特别是在网络缺乏学习它们的能力的地方。这些简单的架构改变在 i.i.d. 和分布之外条件下显着提高了泛化性能,例如在 ImageNet-C [11] 上的自然破坏的图像分类和 Meta-Dataset [26] 上的小样本学习。在不引入额外的可训练参数和使用开源代码库的默认超参数的情况下,两个数据集都取得了最先进的结果。
Aug, 2021
本文提出了一种新的抗锯齿方法,通过使用复数卷积和模运算代替实数卷积和最大池化,以提高卷积神经网络的平移不变性,同时基于双树复小波分组变换设计了一个 “双生” 结构,实现了与标准卷积神经网络类似的输出效果,提高了图像分类的预测准确性,并且保留了高频信息同时减少内存使用。
Dec, 2022
本文研究了卷积神经网络在面对微小图像变换时不具有不变性及其成因。作者提出传统的卷积架构不满足传统采样定理及数据增强只适用于与训练集中典型图像相似的图像,且两种解决方案只能部分解决问题。因此,在网络保持高准确率的情况下保证不变性的问题仍未解决。
May, 2018
本文介绍了一种去除伪影的下采样操作 ——FrequencyLowCut pooling,并通过结合 FGSM 的对抗训练在模型鲁棒性和过拟合方面取得了显著改善。
Apr, 2022
该论文介绍了 DiffStride,一种可学习个调整步幅的下采样层,在图像分类中表现出比标准下采样层更好的泛化性能和效率,并通过引入正则化项控制了网络的计算复杂度。
Feb, 2022
本文介绍了一种基于最近图像降采样研究的深度学习方法,叫做细节保留池化 (DPP),它可以放大空间变化并保留重要的结构细节,其参数可以与网络的其余部分一起学习,在几个数据集和网络上的实验证明 DPP 方法在性能上优于常规池化方法。
Apr, 2018
本文旨在提高卷积神经网络对于图像分类的数学解释性,通过利用离散 Gabor - 类卷积的属性证明特征图在满足某些特定条件下可以逼近复杂 Gabor - 类系数的模,从而具有一定的稳定性,本文通过实验验证了这一理论并与双树小波分组变换一类的离散 Gabor - 类分解进行了比较。
Sep, 2022
本文提出一种扩展的反锯齿方法,旨在解决由下采样层和非线性层引起的失真问题,从而创造真正无失真的平移不变的 CNN,并且在整数和分数(即次像素)平移方面具有不变性,因此在对抗平移的鲁棒性方面优于其他平移不变方法。
Mar, 2023