Dec, 2024
消除冗余:通过选择性模块替换进行后训练模型净化
Cut the Deadwood Out: Post-Training Model Purification with Selective
Module Substitution
TL;DR本研究旨在解决深度神经网络(DNN)在面对公共数据集时可能遭遇的数据中毒攻击问题。我们提出了一种新颖的方法——贪婪模块替换(GMS),能够识别并替换后门模型中关键的“冗余”模块,从而实现模型的净化。实验结果表明,GMS在多个设置下对抗广为人知的攻击非常有效,显著降低了后续攻击成功率。