神经网络中毒性验证
本研究探讨了对洁净标签下的中毒攻击的防御方法,并提出了一种在迁移学习环境中检测和过滤被中毒数据点的新方法,通过实验分析表明,我们的方法能够在特征向量空间中有效区分有效的中毒点和干净点,并通过多个架构、数据集和中毒预算的比较,充分评估了我们的方法,结果显示我们的方案在所有实验设置中均优于现有方法的防御率和最终训练模型性能。
Mar, 2024
本论文研究了在机器学习算法中,特别是深度神经网络中毒攻击的方法,提出了生成毒瘤数据的生成方法,并设计了一种检测方法来检测这种攻击。实验结果表明,与直接梯度法相比,这种方法可以加速毒瘤数据的生成速度高达 239.38 倍,且模型的准确度下降略微较低。
Mar, 2017
提出了一种有效的对抗性样本(backdoor)防御方法,它由多个子模块组成,能够在检测到 backdoor 的同时进行筛选清洗,并通过提取毒信号的方式中和攻击。该防御方法在 CIFAR10 数据集上针对 9 种不同的目标基类配对均表现出较好的效果。
Nov, 2019
本文对过去 15 年来关于机器学习中中毒攻击和防御的 100 多篇论文进行了全面的系统化概括和批判性点评,主要关注于视觉应用程序,并讨论了当前的限制和开放性的研究问题。
May, 2022
本研究介绍了一种新的 “多面体攻击” 方式,其中毒害图像被设计成包围目标图像特征空间,使用 dropout 方法帮助提高攻击的可转移性,成功率超过 50%,仅污染了训练集的 1%,并可在没有访问受害者网络输出、架构或(在某些情况下)训练数据的情况下实现攻击。
May, 2019
本文介绍了一种新的生成模型,用于对机器学习分类器进行攻击,并提出了一种生成式对抗网络,包括生成器、鉴别器和目标分类器,以模拟在现实攻击中可以预期的检测限制,进而确定底层数据分布的易受数据中毒攻击的区域。
Jun, 2019
本文研究了机器学习分类器在网络流量自动监控中的鲁棒性,关注于网络流量流分类器受到有害攻击的后门攻击,对干净标签毒化的挑战场景进行了调查,并提出了一种触发器制作策略,其中利用模型解释性技术生成有效的触发模式,最终设计了生成贝叶斯网络模型等创新策略以生成隐蔽触发器,以最小化触发器的醒目程度,从而使检测正在进行的侵毒行动更具挑战性。该研究的发现提供了在多种情况下使用的网络流量分类器遭受侵毒攻击的可行性见解,包括检测恶意通信和应用程序分类。
Jun, 2023
本文综述了机器学习分类器训练中的数据污染攻击的安全漏洞,并介绍了几种可行的检测和缓解机制,比较了不同方法的性能以及固有属性,如可靠性、隐私和可解释性。同时,提供了未来研究方向的参考。
Feb, 2022