- 抵御文本对抗攻击的快速对抗训练
通过在嵌入空间进行单步扰动生成和扰动初始化的研究,我们提出了一种快速对抗训练(FAT)方法,以改善模型在无同义词感知情况下的鲁棒性,实验证明 FAT 显著提高了 BERT 模型在各种攻击下的鲁棒性。
- AAAI基于相互进化的有效和通用的图去学习方法
通过互相进化的图形反学习(MEGU),我们提出了一种新的互相进化模式,同时发展了图形反学习的预测和学习能力,解决了在 AI 应用中数据隐私和模型健壮性的增长需求。
- 探索任务内部关系以改善元学习算法
通过选择多样的任务进行小批量处理,我们研究利用任务关联的外部知识来改善训练稳定性,进而减少训练中的噪音。
- RadEdit: 通过扩散图像编辑对生物医学视觉模型进行压力测试
使用生成图像编辑来模拟数据集变化并诊断生物医学视觉模型的故障模式,无需额外的数据收集即可评估模型的鲁棒性。
- 因式分解视觉转换器:通过局部窗口成本建模远距依赖
我们提出了一种新颖的分解自我注意力机制 (FaSA),它具有本地窗口的计算成本和远程依赖建模能力。利用 FaSA,我们提出了层次结构的分解视觉 Transformer (FaViT),它在输入图像空间分辨率方面具有线性计算复杂性,并在分类和 - AAAI无数据强标签强韧性窃取攻击
这篇论文介绍了一种新的无数据硬标签鲁棒性窃取攻击方法,该方法通过查询目标模型的硬标签而无需任何自然数据,实现了对模型准确性和鲁棒性的窃取,实验证明其有效性。
- 提高图像分类的事后解释基准可靠性
通过使用心理度量学中的 Krippendorf's alpha 来量化图像分类后置解释方法的可靠性,本研究提出了模型训练改进方法,包括使用扰动样本和采用焦点损失函数,以增强鲁棒性和校准性。经验证实,跨度度量、数据集和后置方法,该开创性工作在 - 熊猫还是不是熊猫?通过交互式可视化理解对抗攻击
通过与 AML 学习者和教师的设计研究,引入 AdvEx 作为一个多层次交互式可视化系统,全面呈现对新手 AML 学习者的不同图像分类器的逃避攻击的性质和影响,我们定量和定性评估了 AdvEx,并通过用户研究和专家访谈的两部分评估结果表明, - 压缩系统提升图神经网络对抗攻击能力
这篇研究论文通过提出了一种新颖的方法来增强图神经网络对于恶意扰动的鲁棒性,该方法基于具有收缩性质的微分方程的图神经层,同时学习节点特征和邻接矩阵的进化,从而在输入特征和图的连通性的扰动方面增强模型的鲁棒性,并通过多个真实世界基准测试验证了我 - 破解、模仿、修复:通过生成人类攻击提高鲁棒性
通过有限的人类对抗样本生成更有用的对抗样本,提高模型鲁棒性,对抗训练框架在 ANLI 和仇恨言论检测数据集中展示了其优势,同时训练合成对抗样本提高了模型对未来轮次的鲁棒性。
- 快速传播是更好的:通过抽取子网络加速单步对抗训练
在这项工作中,我们提出了一种利用模型的内部构建块来提高效率的方法,通过在训练过程中动态地采样轻量级子网络作为替代模型,加速前向和后向传递以实现高效的对抗训练,并通过理论分析证明了单步对抗训练和采样子网络可以提高模型的鲁棒性。相比之前的方法, - 借鉴过去:基于代理的对抗性防御框架提升稳健性能
一篇关于深度学习模型鲁棒性和对抗性训练的研究论文,提出了一个基于历史状态的更新规则和自蒸馏的防御目标,以提高模型的鲁棒性和训练稳定性。
- MM用于稳健的长尾学习的数据流形的正交不确定性表示
在长尾分布的情景中,模型对尾部类别的识别能力受限于尾部样本的少量表示。本文提出了一种基于特征嵌入的正交不确定性表示方法(OUR)和端到端的训练策略,以改善模型的长尾现象。研究结果在长尾数据集上进行的综合评估表明,OUR 方法显著改善了模型的 - SoTTA:嘈杂数据流上的鲁棒测试时适应
通过高置信度统一类别采样实现输入层面的健壮性和通过熵 - 锐度最小化提高模型参数对噪声样本大梯度的健壮性,我们提出了一种对噪声样本具有鲁棒性的新颖的测试时适应性算法(SoTTA),在各种噪声场景下,我们的方法优于基准测试时适应性方法,并在没 - EMNLPPerturbScore:连接自然语言处理中的离散与连续扰动
通过建立离散和连续扰动之间的联系,使用提出的 PerturbScore 可以学习这种相关性,从而超越了以往用于测量离散扰动的方法,并且可很好地应用于不同数据集和扰动方法,因此可以作为研究 NLP 模型稳健性的强大工具。
- 在不同程度的分布偏移下,鲁棒性可能比我们认为的更脆弱
我们的研究探讨了分布偏移程度的更加微妙的评估设置,我们发现模型的稳健性在不同程度的分布偏移下可能相当脆弱和不一致,因此在从有限范围下的评估中得出结论时应更加谨慎。此外,我们观察到大规模预训练模型(如 CLIP)对于新颖下游任务的微小分布偏移 - 图结构正则化对抗训练方法
本文提出一种名为 GReAT 的正则化方法,以提高深度学习模型的分类性能,通过将数据图结构引入对抗性训练过程中,增强模型的鲁棒性,并在对抗攻击中提供更好的测试性能和防御能力。
- 关于对抗鲁棒性和可操作解释之间的权衡
机器学习模型在高风险环境中的应用越来越多,确保这些模型的预测不仅具有对抗性鲁棒性,而且能够向相关利益相关方进行解释变得重要。然而,这两个概念是否可以同时实现以及是否存在着它们之间的权衡是不清楚的。在本研究中,我们首次尝试研究对抗性鲁棒模型对 - 揭示空间时间遮挡自编码器在多变量时间序列预测中的威力
该研究提出了一种基于空间 - 时间蒙面自编码器(STMAE)的多元时间序列(MTS)预测框架,利用蒙面自编码器来增强空间 - 时间基线模型的性能,并通过在多个 MTS 基准上进行广泛实验来证明其在提高 MTS 预测能力方面的潜力。
- 从鲁棒性视角理解数据增强
在视觉识别领域,数据增强作为一种关键技术可以增加模型的鲁棒性。本文从理论和实证的角度探讨数据增强的机制,揭示了其在模型鲁棒性中的作用,并通过实验证明了这些技术主要通过中高级游戏交互来刺激。此外,我们的研究还涵盖了多个数据集和各种增强技术,强