- 多模态一定更好吗?多模态假新闻检测的鲁棒性评估
本文针对多媒体假新闻检测方法鲁棒性差的问题,提出了一种系统的鲁棒性评估方法,并通过 5 种对抗攻击和 2 种后门攻击实验验证,结果表明通过防御机制可以提高多模式检测器的鲁棒性。
- CVPR3D 常见数据损坏及数据增强
本文提出了一组图像转换,用作对模型鲁棒性的评估,以及训练神经网络的数据增强机制。这些转换具有现实世界中更可能出现的损坏方式和语义,可以有效提高模型的鲁棒性,并为鲁棒性研究开辟了有前途的方向。
- RGRecSys:推荐系统稳健性评估工具包
本文提出了一种综合的鲁棒性评估方法,针对在线技术中广泛存在的推荐系统,研究数据稀疏性和个人信息注入攻击等多种情形下的鲁棒性,并提出了一套评估工具 Robustness Gym for RecSys (RGRecSys),可以快速、统一地评估 - 评估自动驾驶语义分割在面对真实世界对抗性补丁攻击时的鲁棒性
本文通过研究数字和现实中的对抗补丁,对流行的 SS 模型的稳健性进行了深入评估,并提出了场景特定攻击优化方法,似乎对自动驾驶等实际应用的影响不大。
- IJCAI通过鲁棒性评估和操作属性评估深度学习分类器的可靠性
本研究提出一种基于深度学习分类器的可靠性评估方法,通过对输入空间进行细分,并结合运行实例的可靠性评估和操作特点进行分析,评估分类器的误分概率并提高评估的可信度。
- 探索健壮神经网络的误分类以增强对抗攻击
针对当前神经网络抵御对抗攻击的能力较弱的情况,提出了一种新的损失函数,从而提高了 19 种不同状态下的神经网络的抗攻击能力。同时发现目前不良攻击行为只能诱发少量不同类别的误分类,过于自信或不自信都会影响对模型鲁棒性的准确评估。
- ICLR简单透明对抗样本
通过引入秘密嵌入和透明对抗性示例作为一种更简单的评估鲁棒性的方法,本文在实际部署的 Google Cloud Vision API 和 Microsoft Azure 的 Computer Vision API 等场景下评估其恶意攻击的成功 - TextFlint:用于自然语言处理的统一多语言健壮性评估工具包
本文提出了一个跨语种的 NLP 任务(TextFlint)多方面评估平台,它包含通用文本转换、任务特定转换、对抗攻击、亚种群以及它们的组合,可为从多个方面对模型进行全面的鲁棒性分析。
- RADDLE:一个稳健的面向任务型对话系统的评估基准与分析平台
为了最大限度地提高面向任务的对话系统的实用性,该论文引入了 RADDLE 基准,该基准是一个语料库和工具的集合,用于评估模型在不同领域的性能。通过包括训练数据有限的任务,RADDLE 旨在鼓励具有强大泛化能力的模型。通过现有模型的评估,发现 - ICLRCoCo: 用于评估对话状态跟踪器的可控因果推断
本文提出使用可控反事实推理 (CoCo) 来对话状态跟踪模型(DST)进行鲁棒性评估,利用 CoCo 生成的反事实对话场景来评估在 MultiWOZ 数据集上的 DST 模型,结果表明相对于传统的技术方法,CoCo 会对 DST 模型的性能 - 决策算法评估多模态安全关键场景生成
该研究提出了一种基于流的多模态安全关键场景生成器用于评估决策算法的鲁棒性,并使用六个强化学习算法进行实验,从而得出了它们的鲁棒性。
- 对抗网络流量:评估基于深度学习的网络流量分类的鲁棒性
本文评估深度学习技术在网络流量分类中对抗网络攻击的鲁棒性,通过三种不同类别的攻击方法注入通用对抗扰动,发现即使注入微小的扰动也能显著降低深度学习技术在包分类、数据包内容分类和时间序列分类中的分类性能。