使用单个(稳健的)分类器进行图像合成
本文研究了如何使用转移学习训练鲁棒的少样本分类器,并提出了一种基于校准中心点的分类方法。我们证明,将标准对抗训练应用于基础类别,并结合针对新类别的校准中心点分类器,可以在少样本学习的标准基准测试中超越或与最先进的高级方法持平。我们的方法简单易用,易于扩展,几乎不需要额外的工作量就能使少样本分类器更加稳健。
Apr, 2022
本文提出了一种多类别增强框架来确保对抗鲁棒性,通过将鲁棒性要求加入损失函数并使用被对抗性破坏的输入进行随机梯度下降步骤,证明在弱训练预测器的情况下可以实现鲁棒性,实验证明对抗鲁棒的多类别增强不仅优于最先进的方法,而且训练所需时间极少。
Mar, 2021
在现实的计算机视觉应用中,我们可以优化识别对象的设计,并开发了一个框架来利用这种优化来显著提高视觉模型的性能和鲁棒性,通过利用现代机器学习算法对输入扰动的敏感性来设计 “鲁棒对象”,即明确优化为可信检测或分类的对象。我们展示了这一框架在各种基于视觉的任务上的有效性,涵盖了从标准基准测试,到(模拟中的)机器人,再到真实世界实验。
Dec, 2020
通过添加一个用于协作训练的对抗样本检测网络和设计一种新的数据采样策略,我们建议了一个简单的架构来构建具有一定鲁棒性的模型,该模型能够适应许多不同的对抗攻击,并针对 Cifar10 dataset 的实验表明这种设计对模型的鲁棒性具有积极影响。
Apr, 2022
我们提出了一个新颖的框架,用于生成对抗性基准测试,以评估图像分类模型的鲁棒性。我们的框架允许用户定制应用于图像的最佳失真类型,从而帮助解决与其部署相关的特定失真问题。该基准测试可以生成不同失真水平的数据集,评估不同图像分类器的鲁棒性。我们的结果表明,我们的框架生成的对抗性样本在任何图像分类模型(如 ResNet-50、Inception-V3 和 VGG-16)上都是有效的并且具有传递性,导致其他模型失效。即使使用最先进的技术对这些模型进行对抗式重训练,这些失败仍然会发生,证明了我们对抗性样本的泛化能力。我们在 CIFAR-10 和 ImageNet 上的净 $L_2$ 失真方面取得了与最先进基准技术具有竞争性的性能;然而,我们的框架是通过简单的失真(如高斯噪声)实现这些结果的,而不引入不自然的伪影或颜色渗透。这得益于基于模型的强化学习(RL)代理和将对图像的深度树搜索减少到一级分析和动作的技术,来降低模型对扰动的敏感性。选择失真类型和设置多类别分类概率阈值的灵活性使得我们的框架适用于算法审核。
Oct, 2023
研究发现标准的神经网络产生对抗样本的方法在面临视角改变、噪声和其他自然变换的情况下无法在物理世界中持续地欺骗神经网络分类器,但此研究成功演示了存在强韧性的三维对抗性目标,提出了第一个能在所选择的转换分布中产生对抗性示例的算法,制造了首批物理对抗物体。
Jul, 2017
通过提供第一个三类合成克隆模型(即有监督、自监督和多模态)的基准测试,我们发现现有的合成的自监督和多模态克隆模型在多种稳健性指标上与真实图像基线相媲美甚至超越,但合成克隆模型对对抗性噪声和真实世界噪声更加敏感,同时发现同时使用真实数据和合成数据可以进一步增加稳健性,并且生成合成图像的提示选择对合成克隆模型的稳健性起到重要作用。
May, 2024
本文提出了一种针对任务的合成数据生成方法,通过训练可训练的合成器网络产生有意义的样本,并与现实世界的图像相关的判别器配对来生成逼真的数据,再通过加入混合术来提高训练目标分类器的不变性,实验结果表明该方法在不同的目标网络上的应用可以显著提高检测性能。
Apr, 2019
本文提出了一个有效的图像增强方法,通过深度图像恢复网络来将离散的对抗噪声样本转换回自然图像流形,从而提高对抗性的鲁棒性,同时提高图像质量和保持干净图像上的性能表现。
Jan, 2019