研究了标签平滑作为改善监督深度学习模型对抗鲁棒性的手段,在多个数据集和模型上证明了标签平滑的普遍优越性以及提出了几种变化形式。
Jun, 2019
这项研究通过使用不同程度的平滑化技术来实现情感分类的标签平滑化,从而提高情感分类准确性,并在八个不同的数据集和深度学习架构(TextCNN、BERT 和 RoBERTa)中的训练和微调两种学习方案下,通过大量实验展示了标签平滑化在文本情感分类任务中的卓越性能。
Dec, 2023
提出一种基于模型概率分布的标签平滑正则化方法,使每个样本的平滑程度都不同,从而在训练期间动态自我调整平滑程度,有效提高模型的泛化和校准性能。
Oct, 2022
本文通过研究标签平滑是否能够缓解标签噪声的影响,发现标签平滑可以与标签噪声文献中的一类损失校正技术相竞争,同时发现在从嘈杂数据中提取模型时,对老师标签进行标签平滑可以提高模型性能,这对于噪声无关问题的最近发现提供了进一步的启示,说明标签平滑在某些情况下是有益的。
Mar, 2020
标签平滑是一种用于深度学习的广泛采用的正则化方法,本研究探究了标签平滑对模型反演攻击的影响,发现传统的标签平滑会增加模型的隐私泄露,而采用负因子的平滑可以阻止类相关信息的提取,从而提高隐私保护性并增强模型的鲁棒性。
Oct, 2023
综述了最近几年针对 NLP 中深度神经网络面对对抗干扰的鲁棒性不足和易受攻击的挑战,提出了一种新的分类方法,介绍了不同的对抗防御方法和其在训练中作为正则化机制的应用,并指出了深度神经网络的脆弱性和对其进行防御面临的挑战。
Mar, 2022
介绍了一种新的正则化技术,使用对抗性目标来进行领域敌对微调,可以有效提高预训练语言模型在各种自然语言理解任务中的表现。
Sep, 2020
本文利用 Interval Bound Propagation(IBP)训练了第一个能够抵御包括词语替换在内的 label-preserving 转换攻击的 NLP 模型,该模型在情感分析与自然语言推理任务上取得了 75% 的对抗准确率,远高于传统训练模型和数据增广训练模型的 8% 和 35%。
Sep, 2019
本文研究标签平滑的结构化方法,通过对训练数据中真实标签进行软化处理,有助于避免过度自信的输出,提高神经网络泛化能力的同时,兼顾不同训练数据的特性,为机器学习领域中的正则化技术提供了一种有效的手段。实验结果表明,该方法在合成与各类真实数据集中均取得了较好的性能表现。
Jan, 2020
通过引入环境标签平滑 (ELS) 方法,可以改善 Domain Adversarial Training (DAT) 训练的不稳定性并减少噪声对鉴别器的影响,从而提高模型的稳定性、收敛性和噪声鲁棒性,并在大范围的域泛化 / 适应性任务上取得了最新的成果。
Feb, 2023