FullCert: 神经网络训练和推断的确定性端到端认证
本文提出了一种基于 Chernoff-Cramer Bounds 的新型通用概率认证方法,可以用于对抗性攻击环境下的机器学习应用。实验结果支持了我们的理论发现,证明了我们的方法对于语义扰动具有防御能力。
Sep, 2021
通过贝叶斯学习的视角考虑深度神经网络的对抗训练,并提出了一种具有可证明保证的贝叶斯神经网络(BNN)的对抗训练的原则性框架。该方法可在 MNIST、FashionMNIST 和 CIFAR-10 上训练出可证明鲁棒性的模型,并用于不确定性校准。这是第一次直接训练可证明的 BNN,可促进在安全关键应用中的部署。
Feb, 2021
现代机器学习流程利用大量公开数据,导致无法保证数据质量,使得模型容易遭受中毒和后门攻击。本论文提出了一个框架,首次提供了有关使用潜在操纵数据进行训练的模型行为的可证明保证。该框架通过使用凸松弛来近似计算可能的参数更新集合,限制了任何梯度下降学习算法的所有可达参数集合,并提供模型性能和后门成功率的最坏情况行为的界限。该方法在能源消耗、医学成像和自动驾驶等应用的多个真实世界数据集上进行了演示。
Jun, 2024
本文提出了一种基于确定性证明的机器学习模型认证方法,通过基于正则化损失的训练,以及对高斯平均数期望值的估算,实现了在无需标签信息的情况下,针对 ImageNet-1k 数据集的模型认证,并使得机器学习模型对抗攻击具有抵抗性。
Oct, 2020
通过在网络中加入全局 Lipschitz 边界,文中提出的方法可以快速训练大型强健的神经网络,实现了可证明的最先进的可验证准确性。同时,该方法比最近的可证方法需要的时间和内存少得多,并在在线认证时产生可忽略的成本。
Feb, 2021
该研究提出了一种概率证明框架 PROVEN,用于验证神经网络在输入加噪时的鲁棒性,可证明分类器的 top-1 预测在受限的 Lp 范数扰动下不会发生改变,证书是基于现有的神经网络鲁棒性验证框架,该方法在 MNIST 和 CIFAR 神经网络模型的实验中取得了 75% 的提升。
Dec, 2018
神经网络在对抗攻击中容易受到干扰,训练和验证稳健的神经网络是有挑战的,而本论文通过采用端到端的基于集合的训练方法来解决这个问题,该方法使得训练和验证神经网络的稳健性更加简单有效。此外,通过使用集合训练的方法,可以在很多情况下比使用最先进的对抗攻击训练的神经网络表现更好。
Jan, 2024
针对神经网络模型在输入数据遭到恶意篡改时的高敏感度,提出一种能够证明防御网络免受攻击的模型的构建方法,通过计算 Lipschitz 常数与预测边界之间的关系,提出一种计算有效的对不同的复杂网络广泛适用的鉴别器大小的方法,并提出一种有效的训练程序,提高数据点周围可证明的保护区域和网络的鲁棒性。
Feb, 2018