高效提升预训练模型的鲁棒性
我们提出了一种用于预训练可认证的强健模型的方法,通过显著扩展预训练数据分布,在下游任务的微调中取得显著效益。我们通过对混合干净图像和各种噪声图像进行预训练,发现即使仅在干净图像上进行微调,也能取得惊人的认证准确率。此外,我们的方法仅需一个模型,即可处理各种噪声水平,大大降低了与以往使用多个模型的方法相比的计算成本。尽管仅使用一个模型,我们的方法仍可以得出与现有的多模型方法相当甚至更好的结果。
Dec, 2023
对现代深度卷积网络(CNN)未能在分布漂移下推广的问题进行了研究,并探究了预备数据量、模型规模和数据处理流程对迁移性能的影响,发现增加训练集和模型大小显著提高了分布偏移鲁棒性,同时是非常简单的预处理,如修改图像分辨率在某些情况下可以显著缓解鲁棒性问题。最后,我们提出了一个新的综合数据集 SI-Score 进行了系统的分析。
Jul, 2020
本文提出了原型微调框架,结合大的参数模型和非参数模型,通过对预训练语言模型进行微调,自动学习偏差,提高预测性能,并提出了四个原则,以向最优解效果调整原型。实验结果表明,在各种低资源情况下,我们的方法在不降低性能的情况下取得了显着的性能提升。
Nov, 2022
本研究通过使用多个强健度和成功率等措施,在 306 个模型对之间全面测试了 18 个 ImageNet 模型,并揭示了若干新的见解:(1)在分类错误的对数下,经验 L2 和 L∞扭曲度量呈线性比例律;(2)模型架构比模型尺寸更重要;(3)对于相似的网络架构,略微增加网络深度可在 L∞扭曲度上提高强健性;(4)存在具有高度敌对可转性的模型,而从一个模型制造的大多数敌对示例仅可以在同一家族内转移。
Aug, 2018
本研究将对抗训练引入自监督学习中,提出了一种通用的具有强健性的预训练模型,可以在提高最终模型的强健性和节省计算成本方面,对后续的微调任务有两种作用。我们进行了大量实验,证明了所提出的框架与传统的对抗训练基线相比,在 CIFAR-10 数据集上可以获得大幅的性能提升。同时,我们发现不同的自监督预训练模型具有不同的对抗性漏洞,并提出了一种集成策略来提高其强健性。
Mar, 2020
在这项研究中,我们的目标是找到一种适用于带有噪声标签数据集的预训练模型微调的合适方法。通过经验分析,我们引入了一种名为 TURN 的新算法,其能够稳健且高效地传递预训练模型的先验知识。该算法包括两个主要步骤:(1)独立调整线性分类器来保护特征提取器免受噪声标签的扭曲影响,以及(2)减少噪声标签比例并基于降噪后的数据集对整个模型进行微调以适应目标数据集。与先前方法相比,该算法在各种基准测试中广泛测试,表现出高效且改进的降噪性能。
Oct, 2023
文章提出了从基于扰动的对抗鲁棒性转向基于模型的鲁棒深度学习的新范式,并探讨了使用深度生成模型来学习自然变化模型并进一步提高深度学习对于自然变化的鲁棒性的三种新型算法,实验表明,该方法在自然情况下能够超越标准深度学习算法和基于范数的鲁棒深度学习算法。
May, 2020
当前 ImageNet 的准确率已接近其上限,研究界越来越关注分布偏移下的鲁棒准确率。本论文主要关注的是如何提高神经网络的鲁棒性,并考虑使用预训练的 ImageNet 模型在目标检测、语义分割、图像分类等不同领域的跨域应用。研究表明,对于目标检测和语义分割等任务,Vanilla Swin Transformer 的鲁棒性相比训练过 ImageNet 的卷积神经网络更强。但对于 CIFAR10 分类任务,当前的鲁棒化技术存在局限性。因此,建立更强大的网络体系结构,加强模型在不同领域之间的迁移学习,是提高模型鲁棒性的重要方向。
Apr, 2022
本文提出 “无损调适” 方案,以解决 fine-tuning 过程对预训练模型通用性的破坏,实验证明此方案在各种任务和模型(ViTs,NFNets 和 ResNets)上表现良好。
Apr, 2023