毒性X逃避:图神经网络的共生对抗鲁棒性
该研究致力于探索清洗图形对提高图神经网络抵御毒化攻击的潜力。提出了一种基于惩罚聚合机制的方法(PA-GNN),该方法通过使用清洗图形和其毒化对应物来训练图神经网络来惩罚干扰项,从而提高了图神经网络对于图形污染攻击的鲁棒性。
Aug, 2019
本研究针对网络表征学习方法中基于随机游走的广泛使用问题,提供了首个对其鲁棒性的对抗性漏洞分析,提出有效的对抗性扰动对网络结构造成了负面影响,并证明本研究提出的攻击是可迁移的。
Sep, 2018
本文介绍了一种新的生成模型,用于对机器学习分类器进行攻击,并提出了一种生成式对抗网络,包括生成器、鉴别器和目标分类器,以模拟在现实攻击中可以预期的检测限制,进而确定底层数据分布的易受数据中毒攻击的区域。
Jun, 2019
本论文旨在研究图卷积神经网络(GCN)中的对抗性攻击,针对 GCN 中利用邻居节点学习聚合信息的方法进行了攻击,并提出了新的方法来执行间接攻击,以检测网络的鲁棒性。在实验中,作者表明,只需毒化一个远离目标节点一个或两个跳点的单个节点,就可以高置信度地欺骗节点分类器。
Feb, 2020
本文主要介绍了第一项针对属性通用图的对抗攻击研究,特别关注利用图卷积思想的模型,在针对测试及训练阶段的攻击中生成针对节点特征和图结构的对抗扰动,并确保这些扰动在保存重要数据特征的同时,不被察觉,旨在帮助更好地理解和缓解目前深度学习模型在对抗环境下的不足。
May, 2018
知识图谱是企业应用中智能决策所必需的关于世界事实知识的概念关系,学习知识图谱嵌入(KGE)模型可以有效地推断新知识。然而,该论文指出,现有的 KGE 模型容易受到数据污染攻击,在预测任务中存在安全漏洞,因此提出了两种新颖的数据污染攻击方法,旨在解决这一问题。
Sep, 2022
本文研究对数据进行污染的方法,发现对预先训练的模型攻击的对抗性示例比传统攻击方法更有效。在分配正确标签时,对抗性示例包含有用的语义信息,可以用于训练;否则,不能用于训练。该方法与现有方法相比显著提高了安全数据发布的效果,我们发布了毒化版本的 ImageNet(ImageNet-P)以鼓励对这种数据混淆形式的研究。
Jun, 2021
本文研究了基于图结构的深度学习模型的鲁棒性问题,针对修改数据的组合结构而导致模型攻击的问题,提出了基于强化学习的攻击方法,同时引入遗传算法和梯度法等多种变形方法来进行攻击,并通过实验验证了针对图级别和节点级别分类任务的多种图神经网络模型都具有易受攻击性,同时这些攻击手段可以用来进一步诊断分类器。
Jun, 2018
本研究探讨了对洁净标签下的中毒攻击的防御方法,并提出了一种在迁移学习环境中检测和过滤被中毒数据点的新方法,通过实验分析表明,我们的方法能够在特征向量空间中有效区分有效的中毒点和干净点,并通过多个架构、数据集和中毒预算的比较,充分评估了我们的方法,结果显示我们的方案在所有实验设置中均优于现有方法的防御率和最终训练模型性能。
Mar, 2024
本论文研究了在机器学习算法中,特别是深度神经网络中毒攻击的方法,提出了生成毒瘤数据的生成方法,并设计了一种检测方法来检测这种攻击。实验结果表明,与直接梯度法相比,这种方法可以加速毒瘤数据的生成速度高达 239.38 倍,且模型的准确度下降略微较低。
Mar, 2017