OpenGU:图形遗忘的综合基准
本文提出了第一个已知的图形神经网络认证卸载框架,涉及节点、边缘和节点特征等三种不同类型的卸载请求,致力于在保证性能的情况下解决基准数据集中的复杂卸载问题并优于不利用图形信息的卸载方法。
Jun, 2022
本研究提出了一种名为GNNDelete的新型模型级层操作符,它优化了图形撤销的关键性质,确保了已学习到的知识在删除节点和边缘的同时保留,并在七个真实世界的图表上展示了优于现有方法的性能提升高达38.8%(AUC)的结果。
Feb, 2023
本文研究了针对图上撤销作用的影响函数,提出了一种模型无关的快速而精确的节点/边/特征图上撤销方法(Graph Influence Function, GIF),基于传统影响函数的目标,添加了一个考虑结构依赖性的损失项,进一步推导了参数变化的闭式解,并在四个典型的图神经网络模型和3个基准数据集上进行了广泛实验,证明了本文方法在不同图图撤销任务的效果、模型效用和效率方面的优异表现。
Apr, 2023
通过系统地回顾图解学习的方法,本综述论文旨在增进对新加入该领域的研究人员的理解,与差分隐私建立关联,探索其在不同领域的应用,以增强数据隐私和增强人工智能系统的鲁棒性,并鼓励进一步研究和创新,从而推动图解学习领域的发展。
Aug, 2023
通过互相进化的图形反学习(MEGU),我们提出了一种新的互相进化模式,同时发展了图形反学习的预测和学习能力,解决了在AI应用中数据隐私和模型健壮性的增长需求。
Jan, 2024
随着对数据隐私的关注加剧,图神经网络中的遗忘概念成为学术界一个重要的研究前沿,在用户请求下,遗忘概念可以强制从经过训练的图神经网络中有选择地删除特定数据。我们的研究专注于边的遗忘,这一过程在现实世界应用中具有广泛适用性。然而,我们的研究发现当前最先进的方法存在一个关键限制,被称为过度遗忘,即遗忘过程在去除特定数据之外错误地移除了过多信息,从而显著降低了剩余边的预测准确性。为了解决这个问题,我们确定了 GNNDelete 的损失函数作为过度遗忘现象的主要原因,并且我们的分析也表明,损失函数对于有效的边的遗忘可能不是必要的。基于这些认识,我们简化了 GNNDelete 方法,开发出一种名为 UtU 的新方法,它通过对图结构中的忘记边进行断开来方便遗忘。我们进行了大量实验证明,与重新训练模型相比,UtU 在提供隐私保护的同时保持了高准确性。具体而言,UtU 保留了超过 97.3% 的重新训练模型的隐私保护能力和 99.8% 的链接预测准确性。同时,UtU 仅需要恒定的计算需求,凸显了其作为一种轻量且实用的边的遗忘解决方案的优势。
Feb, 2024
我们提出了一种有效、高效、模型无关的后处理方法来实现动态图神经网络的去学习,通过定义去学习请求并在连续时间动态图的背景下形成动态图的去学习,通过对去学习数据、剩余数据和目标动态图神经网络模型进行角色分析,我们提出了一种称为梯度变换和损失函数的方法,将去学习请求映射到所需的参数更新。我们在六个真实世界数据集和最先进的动态图神经网络骨干上进行评估,证明了其效果(例如,性能下降有限,甚至明显改进),效率(例如,最多7.23倍加速)和处理未来去学习请求的潜在优势(例如,最多32.59倍加速)。
May, 2024
本研究解决了现有图去学习框架在去除特定数据对图神经网络影响时存在的结构信息缺失和冗余参数计算问题。提出了一种新颖的图结构映射去学习范式(GSMU)及其基于的社区中心图擦除器(CGE)方法,通过将社区子图映射到节点,实现了节点级去学习操作的重建,显著减少了训练数据和去学习参数的数量。实验表明,CGE在多个数据集上的高效性和性能出色,具有重大应用潜力。
Aug, 2024
本研究解决了现有图学习遗忘技术需要在剩余数据上进行额外训练,导致高昂计算成本的问题。提出了一种两阶段的无训练方法“先删除再修正”(ETR),通过战略性地编辑模型参数以消除未学习样本的影响,从而有效实现图学习遗忘,并在模型性能上进行了增强。实验结果表明,ETR在模型实用性、学习遗忘效率和有效性方面都表现出色,成为解决实际图学习遗忘挑战的有前景方案。
Sep, 2024