关键词backdoor poisoning attacks
搜索结果 - 5
- 关于图缩减的鲁棒性与 GNN 后门攻击
本文通过对六种粗化方法和六种稀疏化方法的综合鲁棒性分析,研究了图结构规模的 GN 任务中图规约方法在最新的后门攻击下的鲁棒性,结果表明鲁棒性因方法而异,一些方法甚至加剧了攻击,因此要确保图规约方法的计算效率提升不会危及 GN 系统的安全性。
- ICLR揭秘后门:使用优化的缩放预测一致性识别后门数据
现代机器学习(ML)系统需要大量的训练数据,但常常需要使用外部数据源。然而,这种做法使它们容易受到后门污染攻击的威胁。本文关注一个相对未被深入研究的挑战:在一个被污染的数据集中自动识别后门数据,且不需要额外的干净数据或手动定义后门检测的阈值 - 透过虚假相关性的镜头缓解后门污染攻击
该论文研究了当现代自然语言处理模型使用大量不受信任的数据集进行训练时,如何减少后门毒化攻击,提出了利用防止虚假相关的方法进行防范,在与现有防御方法进行比较时,该方法能够显著减少后门攻击的成功率,并且在插入攻击的情况下,提供了近乎完美的防御。
- 通过扰动的迁移性检测神经网络后门
研究表明深度神经网络中容易发生 backdoor 污染攻击,本文研究发现有一种有趣的特性,就是在有污染的模型中敌对扰动更容易传输从而用这个特性提出一种能在 TrojAI 基准测试中检测污染模型的方法。
- 利用差分隐私的强鲁棒性异常检测与后门攻击检测
本篇论文提出了差分隐私可以用于改善异常检测、新奇性检测、以及背门攻击检测的效果,并通过理论分析和广泛实验验证了差分隐私在这些任务中的帮助.