本文提出了第一种证明(非)稳健性的图卷积网络方法,该方法能够在考虑特定攻击模型的情况下,保证节点属性的 L0 - 范围内的扰动。最后,我们还提出了一种鲁棒的半监督训练过程,通过实验证明我们的方法证明了图神经网络的鲁棒性,对预测精度的影响最小。
Jun, 2019
本研究针对图形结构数据,基于随机平滑技术,开发出可证明鲁棒性的图神经网络,证明其对于节点和图分类具有结构扰动的认证鲁棒性保证,并在多个 GNN 和多个基准数据集上进行了实证评估。
Aug, 2020
该研究提出了首个集合鲁棒性证明,该证明可以同时保证图灵网络的多个预测结果在扰动下的不可被攻击性,并结合其局部性质使用多个单节点证明来构建强大的集合证明。
Feb, 2023
本文提出一种更加原则性的对抗图的定义,研究表明当前的 GNN 存在 “过于健壮” 的问题,而该问题可以通过将标签结构纳入推断过程进行解决。
May, 2023
该研究论文研究并解决了在安全关键环境中验证神经网络的稳健性和不确定性中的计算依赖关系问题,并使用(矩阵)多项式范围体进行可达性分析验证了其方法在三个流行基准数据集上的有效性。
Apr, 2024
本文提出了一种基于 Chernoff-Cramer Bounds 的新型通用概率认证方法,可以用于对抗性攻击环境下的机器学习应用。实验结果支持了我们的理论发现,证明了我们的方法对于语义扰动具有防御能力。
Sep, 2021
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
本文介绍了一种基于随机平滑法的加性异向噪声分布的结构感知证书方法,此方法相对于传统的邻接矩阵的 $l_{0}$ 范围更加有效,并且能够在图的不同预定义结构之间产生鲁棒性证书,可用于保证图形分类器的鲁棒性
Jun, 2023
通过在网络中加入全局 Lipschitz 边界,文中提出的方法可以快速训练大型强健的神经网络,实现了可证明的最先进的可验证准确性。同时,该方法比最近的可证方法需要的时间和内存少得多,并在在线认证时产生可忽略的成本。
Feb, 2021
该研究提出了一种概率证明框架 PROVEN,用于验证神经网络在输入加噪时的鲁棒性,可证明分类器的 top-1 预测在受限的 Lp 范数扰动下不会发生改变,证书是基于现有的神经网络鲁棒性验证框架,该方法在 MNIST 和 CIFAR 神经网络模型的实验中取得了 75% 的提升。
Dec, 2018