Dec, 2019
计算机视觉模型的黑盒对抗攻击综述
A Survey of Black-Box Adversarial Attacks on Computer Vision Models
Siddhant Bhambri, Sumanyu Muku, Avinash Tulasi, Arun Balaji Buduru
TL;DR该论文介绍了对各种黑盒对抗攻击和防御技术的全面比较研究,旨在提高模型的鲁棒性。
Abstract
machine learning has seen tremendous advances in the past few years, which
has lead to deep learning models being deployed in varied applications of
day-to-day life. Attacks on such models using →
发现论文,激发创造
计算机视觉中对抗攻击综述
深度神经网络被广泛用于各种下游任务,尤其是自动驾驶等安全关键场景,但深度网络常常受到对抗样本的威胁。对抗攻击可以分为白盒攻击和黑盒攻击,前者攻击者知道模型的参数和梯度,后者攻击者只能获取模型的输入和输出。攻击者的目的可以分为有目标攻击和非有目标攻击,黑盒设置是我们实践中会遇到的情况。
Aug, 2023
黑盒对抗迁移性:一个基于网络安全的经验研究
在网络安全领域中,人工智能的快速发展引起了重大安全关注,深度学习模型在对抗性攻击中的脆弱性是主要问题之一,该研究的关键贡献是在网络攻击检测系统中经验性地测试黑盒对抗转移现象,并验证了任何深度学习模型都极易受到对抗攻击的影响,即使攻击者无法访问目标模型的内部细节,白盒对抗攻击相比黑盒对抗攻击具有更严重的影响。因此,有必要研究和探索对抗性防御技术以增强深度学习模型对对抗攻击的鲁棒性。
Apr, 2024
针对深度学习图像分类器的感知质量保持黑盒攻击
该研究论文介绍了如何在低失真路径上发起黑盒攻击,以提高攻击效率和敌对图像的感知质量,并在真实世界系统上进行了实验,验证了该方法在基准分类任务和生物识别及取证等关键应用中的有效性。
Feb, 2019
决策型对抗攻击:针对黑盒机器学习模型的可靠攻击
本研究介绍了基于模型决策的 Boundary Attack,它比传统基于梯度或得分的攻击更加适用于实际的黑盒模型应用,同时它不需要替代模型,比起传输攻击需要更少的知识,更容易应用,提高了机器学习模型的鲁棒性,同时也引发了有关部署机器学习系统安全性的新问题。
Dec, 2017
灰盒对抗训练
本文介绍了对抗性训练及其在构建鲁棒模型方面的应用,提出了新型白盒和黑盒攻击,即灰盒对抗攻击,提出了一种新颖的模型鲁棒性评估方法,并提出了一种新型的对抗性训练:灰盒对抗训练,其使用模型的中间版本来引导敌手生成更加有效的对抗样本,实验证明此方面的成果优于传统方法。
Aug, 2018