真正平移不变卷积神经网络
基于大规模相关性分析框架,通过研究现有的下采样算子,我们发现最大采样偏差与转移不变性呈负相关。基于这一关键洞察,我们提出了一种可学习的池化算子,称为平移不变的多相采样 (TIPS),并对 TIPS 的中间特征映射进行了两种正则化以减小最大采样偏差,从而学习到转移不变的表示。我们的实验证明,与之前的方法相比,TIPS 在多个图像分类和语义分割基准测试中都取得了持续的性能提升,并且在对抗性和分布鲁棒性方面也有所改进。TIPS 相较于之前的方法具有最低的最大采样偏差,从而解释了我们的强实证结果。
Apr, 2024
本文提出了可学习的多相采样(LPS),它是一对可学习的下 / 上采样层,使得卷积网络能够真正具有平移不变性和等变性,可以替换任何卷积网络的下 / 上采样层,本文在图像分类和语义分割方面对 LPS 进行了评估,实验表明,LPS 在性能和平移一致性方面与现有方法相当或优于现有方法。本文首次在语义分割(PASCAL VOC)中实现了真正的平移等变性,即 100%的平移一致性,优于基线 3.3%。
Oct, 2022
本文提出一种扩展的反锯齿方法,旨在解决由下采样层和非线性层引起的失真问题,从而创造真正无失真的平移不变的 CNN,并且在整数和分数(即次像素)平移方面具有不变性,因此在对抗平移的鲁棒性方面优于其他平移不变方法。
Mar, 2023
本文研究了卷积神经网络在面对微小图像变换时不具有不变性及其成因。作者提出传统的卷积架构不满足传统采样定理及数据增强只适用于与训练集中典型图像相似的图像,且两种解决方案只能部分解决问题。因此,在网络保持高准确率的情况下保证不变性的问题仍未解决。
May, 2018
在工业缺陷分割任务中,常用的度量指标是像素精度和交并比 (IoU),然而模型的输出一致性 (或等效性) 经常被忽视。本文提出了一种全新的上 / 下采样层对抗 CNN 中传统采样层的不足,并通过自适应窗口模块和组件注意力模块来改善图像边界变化对等效性的影响,实验结果表明该方法在工业缺陷数据集上具有较高的等效性和分割性能。
Sep, 2023
提出使用卷积位移和完全连接位移加速模型部署到边缘计算平台。在使用 DeepShift 模型转换和训练的预先训练的 ResNet18,ResNet50,VGG16 和 GoogleNet 模型中,可以获得接近甚至更高的准确率,并且 GPU 内核可以减少 25% 的延迟时间,具有较好的应用前景。
May, 2019
介绍了 ShiftCNN,这是一种基于 2 的 n 次幂权重表示的广义低精度卷积神经网络(CNN)推理架构,可应用于任何具有相对较小权重代码本的 CNN 架构,并且减少至少两个数量级的乘积运算,可实现的加速器有 FPGAs 或 ASICs。使用提议的量化算法,ImageNet 的广泛评估表明可以将最先进的 CNN 转换为 ShiftCNN 并且不到 1% 的准确率下降。
Jun, 2017
本研究旨在降低卷积神经网络的资源成本,提出了一种名为 active shift layer 的新型移位操作,实现了最优位移值,通过这种操作,提出了一种轻型快速网络,超越了现有的最先进的网络。
May, 2018