本文研究对抗攻击方法中的组合对抗攻击(CAA),对 CAA 的攻击顺序进行了研究,提供了不同模型的实时推理,并介绍了一个基准评测 CAA 的排行榜。
Jul, 2022
本文介绍了一种基于多目标蚁群算法的自动对抗攻击优化设计方法,其搜索空间不仅包括攻击者操作、幅度、迭代次数、损失函数,还包括多种对抗攻击连接方式,实现了对防御模型的近最优自动搜索,有效提高了深度学习模型对抗攻击的鲁棒性。
Aug, 2022
本文提出了一种针对图像分类器集合的迭代式对抗攻击方法,通过此方法,在 CAAD 2018 针对性对抗攻击竞赛中获得第五名,该方法提高了黑匣子对抗攻击的成功率。
Nov, 2018
我们提出了 CAPGD 和 CAA 两种新的攻击方法,证明它们在表格机器学习中的有效性和高效性,认为它们应成为任何新的防御或鲁棒性架构的最低测试标准。
Jun, 2024
针对深度表格模型的健壮性评估和对抗攻击的研究,提出 CAA 对约束表格深度学习模型进行攻击,构建深度表格模型的健壮性评估基准,为提高深度表格模型在各种对抗攻击场景下的健壮性提供安全实践建议。
Nov, 2023
本文提出了一种名为 Meta Gradient Adversarial Attack(MGAA)的新型结构,采用元学习的思想,插入攻击方法以提高跨模型的传递性,通过缩小白盒和黑盒攻击之间的梯度方向差距来改善黑盒设置下的对抗样本的传递性。在 CIFAR10 和 ImageNet 数据集上的实验结果表明,本文所提出的结构在黑盒和白盒攻击设置方面胜过了现有的最先进方法。
Aug, 2021
本篇论文阐述了机器学习领域中的敌对攻击,提出了一种名为 “攻击生成器” 的结构化方法并进行了应用于自动驾驶领域的计算机视觉系统语义分割和目标检测阶段的实践研究,然后针对定义捕获的模块进行了攻击生成,证明了该方法的实用性。
Jun, 2019
本文主要介绍了机器学习算法在数字经济和人工智能等领域中的广泛应用,特别是在安全关键应用领域中的重要性。同时,文章详细介绍了对抗机器学习攻击的原理、攻击类型及当前各种防御机制的深度分析。
Feb, 2022
本文提出了一种自适应攻击(Adaptive Attack)的方法,利用每个任务的不确定性,直接学习自适应多任务的加权方法,以加速来自序列学习任务的对抗攻击方法,并获得了很好的成功率和速度提升,实现了针对场景文本识别的对抗攻击。
Jul, 2018
这项调查研究针对网络安全中恶意软件分类展示了当前对抗性攻击和防御策略的研究,将方法分类为生成模型、基于特征的方法、集成方法和混合策略,并评估了每个领域的优点和缺点,同时讨论了常用的数据集和评估标准,最后提出了开放性研究难题和未来的研究选项。
Dec, 2023