深度学习与音乐对抗
研究了目前许多机器学习模型容易被敌手通过小规模修改数据的方式进行攻击的情形,并将这一攻击方式成功应用于音乐版权检测系统,通过建立一个神经网络的方法,成功地欺骗了 AudioTag 和 YouTube 的 Content ID 等系统。该文的目的是提升人们对于此类攻击的认识,强调版权检测系统工具的重要性以及相应的攻击防护措施的意义。
Jun, 2019
本文介绍了一种基于对深度神经网络输入输出映射的精确理解的算法,用于制造可以轻易被误分类的针对深度神经网络的对抗样本,通过计算不同类型的样本之间的硬度度量对不同的类型的样本抗击抗性进行了评估,并提出了防御针对性攻击的初步方法。
Nov, 2015
本文研究表明即使在物理世界的情境下,机器学习系统仍然容易受到敌对样本的攻击,并通过将手机摄像头获取的对抗性图像输入 ImageNet Inception 分类器,并测量系统的分类精度来证明了这一点。
Jul, 2016
本文研究深度学习中的对抗样本问题,总结了生成对抗样本的方法,提出了对抗样本的应用分类,并探讨了对抗样本的攻击和防御策略以及面临的挑战和潜在解决方案。
Dec, 2017
深度神经网络被广泛用于各种下游任务,尤其是自动驾驶等安全关键场景,但深度网络常常受到对抗样本的威胁。对抗攻击可以分为白盒攻击和黑盒攻击,前者攻击者知道模型的参数和梯度,后者攻击者只能获取模型的输入和输出。攻击者的目的可以分为有目标攻击和非有目标攻击,黑盒设置是我们实践中会遇到的情况。
Aug, 2023
本文探讨了在网络入侵检测系统中对抗性问题的本质,从攻击者角度出发,研究利用进化计算和深度学习生成对抗样本的方法,并应用于公共数据集,与基线方法做对比,结果表明,这些生成对抗样本会导致 11 个不同的机器学习模型及投票分类器高误分类率,突出了机器学习检测系统在面临对抗性样本时的脆弱性。
Apr, 2020
本文研究了深度说话人识别系统所面临的对抗攻击问题,尝试了多种防御方法,并且实验证明了对抗攻击可能会导致准确度降至 0%,并且发现了以投影梯度下降为基础的对抗训练方法是最好的防御手段。
Aug, 2020
文章介绍了一种针对离散输入数据生成对抗性样本的新型损失函数,该方法被应用于卷积神经网络用于恶意软件检测中,可以成功地将生成的有效载荷插入二进制文件中,使其被检测为良性,并保留原始功能。
Feb, 2018