- MALT 强化对抗攻击
当前多类别分类器的对抗攻击方法在选择目标类别时仅基于分类器对各个目标类别的置信度,本文提出了一种基于中尺度几乎线性假设的新颖对抗目标方法 MALT (Mesoscopic Almost Linearity Targeting)。我们的攻击方 - 面向有效训练与评估的鲁棒模型:相对于 $l_0$ 有界对抗扰动
研究了 $l_0$ 范数约束下的稀疏对抗扰动,并提出了一种名为 sparse-PGD 的白盒 PGD 攻击方法来有效高效地生成这种扰动。此外,将 sparse-PGD 与黑盒攻击相结合,全面可靠地评估模型对 $l_0$ 约束下的对抗扰动的鲁 - 鲁棒性一致的对抗训练用于安全机器学习模型更新
我们展示了机器学习模型的周期性更新可能导致负面翻转,进而影响模型的安全性和性能,为此我们提出了 robustness-congruent adversarial training 方法用于解决这个问题。实验证明,我们的方法可以有效降低负面翻 - AAAI走向归纳鲁棒性:利用诱导振荡来抵御图对抗攻击的跨导游程卷积网络
图嵌入网络(GRN)通过学习节点表示从其谐振的子图中获取嵌入的信号,从而培养图嵌入网络(GRN)中的共振性,实现对未见节点的泛化鲁棒性。
- 强韧多模型具有异常特征并编码更多概念
通过研究 12 个具有不同骨干(ResNets 和 ViTs)和预训练集(OpenAI、LAION-400M、LAION-2B、YFCC15M、CC12M 和 DataComp)的鲁棒多模型的表示空间,我们发现这些模型的表示空间呈现出稳健性 - AFLOW: 在极限噪音受限设置下开发对抗样本
通过提出一种新的 Normalize Flow-based 全链路攻击框架,称为 AFLOW,以在严格约束条件下合成不可察觉的对抗性样本,该方法能够在图像质量和攻击能力上具有卓越性,甚至在健壮模型上也能取得比以前方法更高的攻击效果。
- 对抗训练的分割原则
对抗性示例的存在揭示了深度神经网络的基本弱点。我们的主要贡献是一种通用方法,使分类器具有显着的鲁棒性,而其自然准确性的降低仅仅是微小或可忽略的。
- ACL能否使用 NLP 模型 ' 识别 ',' 区分 ' 和' 证明 ' 没有明确答案的问题?
尽管最先进的自然语言处理(NLP)系统在各种语言理解任务上取得了显著的表现,但它们主要关注那些有正确和明确答案的问题。然而,在现实世界的应用中,用户经常会问一些没有明确答案的问题。最新研究表明,即使是 SOTA 模型(包括 GPT-3 和 - 通过持续增量训练检测变形攻击
通过模拟每次有新的数据块可用时更新的学习模型,本文研究了在限制数据传输和存储的情况下,不同 Continual Learning 方法的性能,发现 Learning without Forgetting 是其中表现最佳的算法之一,并探究了它 - NSA: 自然支持工件提升网络可信度
我们提出了自然支持工件(NSA)的概念,这些工件通过使用 DC-GAN 进行工件培训生成,具有高视觉保真度,在场景中增加这些工件有助于提高预测置信度。我们在 Imagenette 数据集上进行了对自然污染的测试,并观察到预测置信度得分提高了 - PASTA:预训练的动作 - 状态 Transformer 代理
通过自我监督学习,本研究建立了一种预训练行为 - 状态 Transformer 代理模型(PASTA),并在行为克隆、离线 RL、传感器故障鲁棒性以及动态变化适应等广泛领域的下游任务中进行了综合研究和比较设计选择,以提供有价值的见解给从业者 - ACLDSRM:通过分布飘移风险最小化提升文本对抗训练
介绍了一种新的经过有效处理的针对深度语言模型对抗训练的方法 —— 分布偏移风险最小化(DSRM),不需要对抗样本进行训练,可以比当前最佳对抗训练方法降低 70% 的时间消耗,并且显著提高 BERT 模型对文本对抗攻击的鲁棒性,实现了各种基准 - 一种用于彩色视频修复的新型低秩鲁棒四元数张量补全算法及其快速实现
本文介绍了一种新的鲁棒四元数张量完成模型来解决彩色视频修补问题,并给出了精确的恢复原理,这种模型非常有效地恢复了满足先验低秩假设的高维数据,通过数值实验验证,该方法成功地恢复了彩色视频,消除了颜色污染,保持了视频连续性,并提供了比现有算法更 - ACL借助偏见来抗衡偏见:通过放大数据集偏差来提高模型的稳健性
通过引入一个偏差放大的训练集和一个反偏袒的测试集来评估模型的性能,我们提出为了开发对这些偏差具有稳健性的模型,应该将数据集的偏差放大。实验表明,这种评估体系对模型来说比原始的数据拆分和手工制作的挑战集都更具挑战性。
- 对抗性鲁棒模型的超参数调整
本文研究在对抗环境下如何调整超参数,通过实验发现需要在标准和对抗训练阶段独立地调整超参数,提出利用廉价对抗训练和多保真度优化器来降低鲁棒性模型的超参数调整的成本。
- AAAI通过部分不变性学习最佳特征
通过学习来自多个环境的数据,提出在模型学习中,使用部分不变性(Partial Invariance)来放宽 Invariant Risk Minimization(IRM)的假设条件,从而在语言和图像数据上进行实验并得出结论。
- EMNLP面向强健的视觉问答:通过对比学习充分利用偏倚样本
提出了一个名为 MMBS 的对比学习方法,通过去除与偏见相关的信息构建正样本进行训练,从而构建更加鲁棒的视觉问答模型并增加其对理性推理的贡献,同时在 VQA-CP v2 OOD 数据集上取得了竞争性的表现以及在 VQA v2 ID 数据集上 - 语言能力对语法错误修正的质量评估的重要性
本研究探讨了受监管质量评估模型对语法错误修正的影响,并发现评估数据的熟练程度会影响评估模型的性能,以此确保更加稳健的评估模型。
- AAAI异步事件驱动数据的对抗性攻击
该研究提出了一种生成事件数据对抗样本并训练鲁棒模型的算法,通过添加 null 事件与设置时空位置来实现基于梯度的攻击,成功率达到 97.95%,相较于原模型,改进了在对抗事件数据上的鲁棒性。
- AAAI结构噪声下稳健图神经网络的比较研究
该研究对不同类型的鲁棒图神经网络在结构噪声表现下进行了全面和系统的比较,并提供了鲁棒性图神经网络选择的实用建议。