使用预训练可提高模型的鲁棒性和不确定性
本研究将对抗训练引入自监督学习中,提出了一种通用的具有强健性的预训练模型,可以在提高最终模型的强健性和节省计算成本方面,对后续的微调任务有两种作用。我们进行了大量实验,证明了所提出的框架与传统的对抗训练基线相比,在 CIFAR-10 数据集上可以获得大幅的性能提升。同时,我们发现不同的自监督预训练模型具有不同的对抗性漏洞,并提出了一种集成策略来提高其强健性。
Mar, 2020
该研究旨在界定预训练在处理数据分布偏移时可以解决的失败模式,发现预训练可以缓解数据外推问题,但对数据集偏见无效;研究结果指出,预训练和干扰同时使用可以增加模型的鲁棒性,也发现在小规模、非多样但去除偏见的数据集上进行微调可以得到比在大规模和多样但有偏见的数据集上进行微调更加鲁棒的模型。
Feb, 2024
大规模深度学习中,预训练生成了下游任务的通用表示。现有文献经验性地观察到下游任务可以继承预训练模型的对抗鲁棒性,并提出了理论上的证明以揭示特征净化在预训练模型和下游任务之间的连接,在两层神经网络中展现出重要作用。通过对抗训练,每个隐藏节点趋向于选择一个或少量特征,而未经对抗训练的隐藏节点容易受到攻击。这一观察结果适用于监督预训练和对比学习,并且通过净化节点,清洁训练就足以实现下游任务的对抗鲁棒性。
Jan, 2024
本文探索了对比学习框架中注入对抗扰动的方法,以提高其在无监督下的自我训练的鲁棒性表现。实验表明,该方法可以实现在无标签数据集下的有效增强,从而大幅提升半监督学习的表现。
Oct, 2020
我们提出了一种用于预训练可认证的强健模型的方法,通过显著扩展预训练数据分布,在下游任务的微调中取得显著效益。我们通过对混合干净图像和各种噪声图像进行预训练,发现即使仅在干净图像上进行微调,也能取得惊人的认证准确率。此外,我们的方法仅需一个模型,即可处理各种噪声水平,大大降低了与以往使用多个模型的方法相比的计算成本。尽管仅使用一个模型,我们的方法仍可以得出与现有的多模型方法相当甚至更好的结果。
Dec, 2023
本文比较了几种对抗训练语言模型的不同方法,包括预训练数据增强,输入空间扰动和嵌入空间扰动,发现输入空间扰动或预训练数据增强可以提高鲁棒性,而使用嵌入空间扰动可以显著提高泛化性。通过神经元的语言相关性分析表明,泛化性的提高是由于 “更加专业化” 的神经元。这是第一篇对对抗训练语言模型生成不同对抗示例方法进行深度定性分析的工作。
Nov, 2022
预训练对深度学习中的模型性能具有广泛应用,我们的工作旨在理解该训练策略对下游模型的泛化特性的影响。我们发现,影响下游有效鲁棒性的主要因素是数据数量,而其他因素的影响有限。
Jul, 2023
在机器学习中,预训练模型对于下游任务的使用已经成为一种标准方法,虽然其实证明了效果提升,但是预训练模型的鲁棒性如何传递到下游任务中还未被充分理解。我们证明了预测器的鲁棒性可以通过其基础表示的鲁棒性来界定,与预训练协议无关。综上所述,我们的结果明确了可靠性表现在部署时所需要的表示函数的要求。
Aug, 2022
本文研究表明,ImageNet 预训练模型虽然在泛化方面作出了贡献,但同时也将非健壮性特性从预训练模型转移到了下游分类任务中的微调模型,本文介绍了其原因并提出了一种简单的健壮性 ImageNet 预训练解决方案。
Jun, 2021
研究表明,使用未标记的数据进行训练可以作为对于耐受对抗攻击模型的有竞争力的替代方法,具体而言是在简单的统计情况下,学习对抗鲁棒模型的样本复杂度与完全受监督的情况一致。此外,使用未标记数据的无监督对抗训练方法可以在 CIFAR-10 这样的标准数据集上,使得鲁棒准确性比仅仅使用 4K 监督样例有 21.7% 的提升,并且可以捕捉到相同数量标记样例的改进量中超过 95% 的部分。最后,使用来自未筛选的 8000 万张小图片数据集的额外未标记数据,在 CIFAR-10 上击败了当前已知最强的攻击,展示了我们的发现也适用于未筛选的现实情况,从而为提高对抗训练打开了新的途径。
May, 2019