基于随机平滑的防御策略对数据污染有多强健?
本文提出了一个新的机器学习算法来防御数据污染攻击,并通过随机平滑技术,构建了具有证明能力的线性分类器,可以高可信地抵御标签混淆攻击。此外,本文所提出的方法不需要对训练和测试数据集的分布作任何假设。
Feb, 2020
该论文提出了一种基于随机选择的认证防御体系抵御数据毒化攻击,能通过平均从训练集中抽样的子数据集的分类器预测来实现认证的鲁棒性,该体系允许用户利用训练集和毒化模型的先前知识提高认证准确性,实验表明该方法优于现有技术水平。
Sep, 2020
本研究提出了一种针对补丁攻击的可验证防御机制,通过将可执行文件划分为非重叠的块,并采用多数投票的方式计算最终预测结果,从而最小化注入内容的影响。此外,引入了预处理步骤,将部分和标头的大小固定为块大小的倍数,从而确保恶意内容仅存在于整数个块中,同时保证对内容插入攻击具有认证的鲁棒性保证。经过广泛的消融研究,结果表明我们的方法在强攻击下展现出无与伦比的鲁棒性,优于文献中基于随机平滑的防御方法。
May, 2024
通过利用差分隐私和采样高斯机制,我们的模型对有限数量的有毒样本提供了确保每个测试实例预测不变的保证,从而提供了超过以前认证提供的两倍以上的对抗鲁棒性。
Aug, 2023
现代机器学习流程利用大量公开数据,导致无法保证数据质量,使得模型容易遭受中毒和后门攻击。本论文提出了一个框架,首次提供了有关使用潜在操纵数据进行训练的模型行为的可证明保证。该框架通过使用凸松弛来近似计算可能的参数更新集合,限制了任何梯度下降学习算法的所有可达参数集合,并提供模型性能和后门成功率的最坏情况行为的界限。该方法在能源消耗、医学成像和自动驾驶等应用的多个真实世界数据集上进行了演示。
Jun, 2024
对使用用户提供数据训练的机器学习系统进行的数据毒化攻击问题进行了探讨,构建了数据异常移除后采用经验风险最小化的防御方法下的攻击损失上限并给出了攻击方法,检验了在 MNIST-1-7,Dogfish 数据集上其防御能力较强,而在 IMDB 情感数据集上加入 3% 的毒化数据可将测试误差从 12% 提升至 23%。
Jun, 2017
研究了如何在多个角度上面对数据污染攻击实现强大的鲁棒性保证和提供可靠的预测,同时提供算法计算文本类问题的区间,并针对线性分离器提供了真正的多项式时间算法。
Mar, 2022
通过 DP-CERT 框架结合随机平滑技术和差分隐私模型训练,同时提供隐私和认证鲁棒性,从而在 CIFAR10 数据集上显著提高了模型的认证准确性和认证半径。
Jun, 2023
本文提出使用对抗训练来提高基于随机平滑的分类器的效果,并设计一种适应平滑分类器的攻击方法,通过大量实验,得出这种方法在 ImageNet 和 CIFAR-10 上的性能显著胜过所有现有的可证明的 L2 - 强健分类器,证明了这种方法是可靠的,且半监督学习和预训练能够进一步提高其效果。
Jun, 2019
利用 kNN 和 rNN 内在的多数投票机制可以提供针对数据污染攻击和后门攻击的保护,并且我们的评估结果表明 kNN 和 rNN 的内在保护机制胜过目前最先进的合格防御。
Dec, 2020