集体鲁棒性证书:利用图神经网络中的相互依赖性
本文提出了一种针对图神经网络和标签 / 特征传播模型的验证可证(非)鲁棒性的方法,并通过 PageRank 和马尔可夫决策过程的相关性来计算证书。我们同时研究了一种鲁棒性训练程序,以增加可证明鲁棒性节点的数量,同时保持或提高了干净的预测准确性。
Oct, 2019
本研究针对图形结构数据,基于随机平滑技术,开发出可证明鲁棒性的图神经网络,证明其对于节点和图分类具有结构扰动的认证鲁棒性保证,并在多个 GNN 和多个基准数据集上进行了实证评估。
Aug, 2020
我们研究图注入攻击下 GNN 的认证鲁棒性。现有研究仅通过验证每个节点提供逐节点的证书,导致认证性能非常有限。在本文中,我们首次提出了集体证书,同时为一组目标节点提供认证。为了实现这一目标,我们将问题形式化为二次约束的线性规划问题,并进一步开发了一种定制线性化技术,使我们能够将问题松弛为线性规划,从而能够高效地求解。通过全面的实验证明,我们的集体认证方案显著改善了认证性能,同时具有最小的计算开销。例如,在 Citeseer 数据集上在 1 分钟内解决线性规划问题时,当注入节点数量占图大小的 5% 时,我们的认证比例从 0.0% 增加到 81.2%。我们的工作是实现可证明的防御更加实际的关键进展。
Mar, 2024
本文提出了一种基于 Chernoff-Cramer Bounds 的新型通用概率认证方法,可以用于对抗性攻击环境下的机器学习应用。实验结果支持了我们的理论发现,证明了我们的方法对于语义扰动具有防御能力。
Sep, 2021
本文提出了第一种证明(非)稳健性的图卷积网络方法,该方法能够在考虑特定攻击模型的情况下,保证节点属性的 L0 - 范围内的扰动。最后,我们还提出了一种鲁棒的半监督训练过程,通过实验证明我们的方法证明了图神经网络的鲁棒性,对预测精度的影响最小。
Jun, 2019
本文介绍了一种基于随机平滑法的加性异向噪声分布的结构感知证书方法,此方法相对于传统的邻接矩阵的 $l_{0}$ 范围更加有效,并且能够在图的不同预定义结构之间产生鲁棒性证书,可用于保证图形分类器的鲁棒性
Jun, 2023
该论文提出了一种新的框架 GCERT,可根据语义层面的图像变异准确地验证神经网络的鲁棒性,并通过生成模型的潜在空间中的方向将全面的语义层面的图像变异一致地表示为整体,以获得精确的分析友好的输入空间表示,同时大大缩短了鲁棒性认证的时间成本。
Jun, 2023
通过计算神经网络的 Hessian 矩阵的特征值上界,提出了基于曲率的神经网络鲁棒性证明和训练方法,相较于基于区间传递的方法,在 MNIST 上取得了更高的鲁棒性准确率。
Jun, 2020
通过在网络中加入全局 Lipschitz 边界,文中提出的方法可以快速训练大型强健的神经网络,实现了可证明的最先进的可验证准确性。同时,该方法比最近的可证方法需要的时间和内存少得多,并在在线认证时产生可忽略的成本。
Feb, 2021