BriefGPT.xyz
Dec, 2023
训练时间反欺骗的渐进式有毒数据隔离
Progressive Poisoned Data Isolation for Training-time Backdoor Defense
HTML
PDF
Yiming Chen, Haiwei Wu, Jiantao Zhou
TL;DR
通过渐进隔离被污染数据的新方法 (PIPD),该论文提出了一种有效的训练策略,以训练一个干净的模型,并降低良性数据被错误分类为污染数据的风险。实验结果表明,PIPD 在多个数据集和 DNN 模型上均表现优异,对多种后门攻击的识别能力显著超过了现有方法。
Abstract
deep neural networks
(DNN) are susceptible to
backdoor attacks
where malicious attackers manipulate the model's predictions via
data poisoning
→