TSS: 用于鲁棒性认证的转换特定平滑
本研究提出了广义随机平滑(GSmooth)理论框架及算法,通过新的维度扩增策略,可证明机器学习系统对普遍的语义转换是有稳健性的,采用基准测试的方法得到的结果显示了我们的方法非常有效。
Jun, 2022
提出了一种新的框架,称为 “General Lipschitz(GL)”,用于基于随机平滑的神经网络分类器的可证明鲁棒性,以对抗可组合的解决的语义扰动。在该框架内,分析了平滑分类器相对于参数变换的依赖性和对应的鲁棒性证书,与 ImageNet 数据集上的最先进方法相比,性能相当。
Aug, 2023
本文提出了将随机平滑算法推广至包括参数化变换以及在参数空间中进行鲁棒性证明的方法,并通过引入三种不同类型的防御机制(启发式的,分布式的和个人的保证),解决了插值和舍入效应导致图像变换不组合的问题。此外,我们还展示了如何通过统计误差限制或图像变换的高效在线逆计算来获得个人证书。
Feb, 2020
本文从因果的角度探讨了深度学习模型在面对对抗性示例时的容易受到攻击的漏洞,提出了一种新的对抗性攻击防御框架 CISS,该框架采用平滑的方式在潜在的语义空间中学习因果效应,并在深层次结构的规模上实现了鲁棒性,并避免了为特定攻击定制噪声的繁琐构建。实验证明该框架能够抵御词语替代攻击,即使是强化了未知攻击算法的扰动。例如,对于 YELP,CISS 在认证鲁棒性方面超越亚军 6.7%,并在综合了语法攻击之后达到 79.4%的经验性鲁棒性。
May, 2022
基于癌症的靶向治疗启发,该研究提出了一种像靶向治疗机制一样的像素手术和语义再生模型(PSSR),用于对抗深度神经网络中的对抗攻击,通过去除攻击并恢复判别内容来实现鲁棒性与准确性的平衡,并对多个基准测试进行了实验证明优越性。
Feb, 2024
本文提出了一种基于 Chernoff-Cramer Bounds 的新型通用概率认证方法,可以用于对抗性攻击环境下的机器学习应用。实验结果支持了我们的理论发现,证明了我们的方法对于语义扰动具有防御能力。
Sep, 2021
提出了一种名为 Semantify-NN 的新方法来验证神经网络对语义扰动的强鲁棒性,该方法通过在任何不同的神经网络的输入层中插入一个名为 SP 层的语义扰动层实现,并能支持鲁棒性验证范围内的不同的语义扰动方式,并取得了比过去更好的验证实验结果。
Dec, 2019
本文介绍一种面向深度分类器的样本依赖的鲁棒性保证技术 —— 随机平滑;提出了一种非加性和确定性的平滑方法,Deterministic Smoothing with Splitting Noise(DSSN),并通过对 CIFAR-10 和 ImageNet 数据集的测试,证明了其比以前的工作具有更高的 L_1 鲁棒性证明。
Mar, 2021
我们的研究探索了提高深度学习超分辨率模型鲁棒性的不同方法的普适性,并发现中值随机平滑在对抗攻击以及标准图像破坏方面比其他方法更具通用性。这些结果支持将真实世界超分辨率方法的发展重心转向鲁棒超分辨率。
May, 2024