本研究提出了通过随机平滑技术来确保深度神经网络对于各种威胁模型的健壮性,同时证明了所提出的健壮性训练过程的健壮性边界,并在 MNIST、CIFAR-10 和 ImageNette 数据集上进行了可靠性评估,该研究成果有助于更强大的机器学习模型的开发。
Mar, 2020
本研究提出了一种针对补丁攻击的可验证防御机制,通过将可执行文件划分为非重叠的块,并采用多数投票的方式计算最终预测结果,从而最小化注入内容的影响。此外,引入了预处理步骤,将部分和标头的大小固定为块大小的倍数,从而确保恶意内容仅存在于整数个块中,同时保证对内容插入攻击具有认证的鲁棒性保证。经过广泛的消融研究,结果表明我们的方法在强攻击下展现出无与伦比的鲁棒性,优于文献中基于随机平滑的防御方法。
May, 2024
本研究发现随机平滑在理论认证与实践中保护分类器免受黑盒攻击的设置存在差异,对 RS 进行攻击会导致认证的鲁棒性下降且分类器准确度降低。
Apr, 2022
我们提出了一种增量鲁棒性认证方法 IRS,通过重复利用原始光滑模型的认证保证,来维护新模型的认证保证并使计算成本降低了很多。
May, 2023
本文考虑攻击者是否可以只利用制造机器学习模型所依赖的随机性来破坏模型的安全性, 发现攻击者能够利用 Randomised Smoothing,一种用于提高模型抵抗对抗性攻击和量化不确定性的方法,背后基于对高斯噪声采样,来进行欺骗性认证,而且攻击只需要更改极小的随机数。因此,作者提出更新 NIST 的随机数测试准则,以使其更适用于安全和关键性的机器学习应用。
Jun, 2023
本文提出了一种基于鲁棒性感知扰动的在线防御机制,可以有效对抗自然语言处理模型的后门攻击,并在情感分析和毒性检测任务中取得更好的防御效果和更低的计算成本。
Oct, 2021
该研究提出了一种基于噪声分布的优化平滑方法,用于深度强化学习自主车辆控制器,旨在中和后门攻击并减少交通拥堵。
Mar, 2023
机器学习模型容易受到对抗攻击,通过随机平滑技术进行认证防御可以提高分类器的鲁棒性。该研究探讨了随机平滑的理论基础、实证有效性和应用,系统化总结了现有知识并提出潜在解决方案。
Dec, 2023
基于深度学习的恶意软件检测器对于被有意修改以逃避检测的恶意软件实例,即对抗性恶意软件实例,显示出易受攻击。为了应对深度学习检测器的这种脆弱性,我们提出了一个受随机平滑启发的针对对抗性恶意软件实例的实用防御方案。该方案使用随机消融平滑的方式训练基于消融版本的可执行文件的基础分类器,在测试时,根据分类器对原始可执行文件的一组消融版本进行的预测,将给定输入可执行文件的最常见预测类作为最终分类。实验证明,相比未经平滑处理的分类器,我们提出的基于消融的模型在 BODMAS 数据集上对各种最先进的规避攻击表现出更高的鲁棒性和泛化能力。
Aug, 2023
通过一种新的框架,使用非高斯噪声和更广泛类型的攻击来实现在深度学习中的认证鲁棒性,并且比之前的方法提供更好的认证结果和新的随机平滑方法的视角。
Feb, 2020