野外细粒度图像分类
本研究通过使用多个强健度和成功率等措施,在 306 个模型对之间全面测试了 18 个 ImageNet 模型,并揭示了若干新的见解:(1)在分类错误的对数下,经验 L2 和 L∞扭曲度量呈线性比例律;(2)模型架构比模型尺寸更重要;(3)对于相似的网络架构,略微增加网络深度可在 L∞扭曲度上提高强健性;(4)存在具有高度敌对可转性的模型,而从一个模型制造的大多数敌对示例仅可以在同一家族内转移。
Aug, 2018
本文旨在研究在细粒度识别方面 CNN 输出对图像转换和噪声的敏感性,回答了如何预测 CNN 的敏感度并增强其稳健性,使用常用的 CNN 架构 (AlexNet、VGG19、GoogleNet) 进行了广泛的经验灵敏度分析,并表明了 VGG19 相比于 AlexNet 和 GoogleNet 更具有鲁棒性,但是即使对于 VGG19,微小的强度噪声也会导致 CNN 性能的巨大变化。
Oct, 2016
本文研究了生成数据集对图像分类器自然鲁棒性的影响,发现与标准训练和流行的数据增强策略相比,使用真实数据和生成数据相结合进行训练可以提高 Imagenet 分类器的准确性和鲁棒性,同时分析了不同因素对结果的影响,并介绍了 ImageNet-G-v1 数据集。
Feb, 2023
本研究评估了 204 个 ImageNet 模型在 213 个不同的测试条件下的表现,发现大多数当前技术无法提供对真实数据中分布变化的健壮性,唯一例外的是在较大且更多样化的数据集上进行训练可以在多种情况下提高健壮性,并且我们的研究表明当前真实数据中的分布变化是一个开放的问题。
Jul, 2020
本文通过训练具有反映人类知觉不确定性的完整标签分布来解决深度神经网络在泛化和鲁棒性方面存在的问题,并呈现了一个新的基准数据集 CIFAR10H。实验结果表明,基于该数据集的显式训练可以实现深度学习分类器具有人类的不确定性,并提高模型泛化性和抵御对抗攻击能力。
Aug, 2019
当前 ImageNet 的准确率已接近其上限,研究界越来越关注分布偏移下的鲁棒准确率。本论文主要关注的是如何提高神经网络的鲁棒性,并考虑使用预训练的 ImageNet 模型在目标检测、语义分割、图像分类等不同领域的跨域应用。研究表明,对于目标检测和语义分割等任务,Vanilla Swin Transformer 的鲁棒性相比训练过 ImageNet 的卷积神经网络更强。但对于 CIFAR10 分类任务,当前的鲁棒化技术存在局限性。因此,建立更强大的网络体系结构,加强模型在不同领域之间的迁移学习,是提高模型鲁棒性的重要方向。
Apr, 2022
本研究探讨了深度学习中中间层所提取的深层特征,并证明了这些特征的性能可能不佳,因为它们是通过最小化经验风险来学习的。针对当前任务与基准数据集的数据分布不同的情况,本研究提出了一种层次稳健优化方法来学习更通用的特征。该方法同时考虑了 example-level 与 concept-level 稳健性,并将问题公式化为带有 Wasserstein 模糊集约束的分布稳健优化问题。本文提出了一种高效的算法,并在标杆数据集上进行了实验,证明了稳健特征的有效性。
Nov, 2019
对现代深度卷积网络(CNN)未能在分布漂移下推广的问题进行了研究,并探究了预备数据量、模型规模和数据处理流程对迁移性能的影响,发现增加训练集和模型大小显著提高了分布偏移鲁棒性,同时是非常简单的预处理,如修改图像分辨率在某些情况下可以显著缓解鲁棒性问题。最后,我们提出了一个新的综合数据集 SI-Score 进行了系统的分析。
Jul, 2020