基于图的安全和隐私分析,通过联合权重学习和传播进行集体分类
本文主要研究基于图的分类方法的安全和隐私分析,提出了对付 collective classification 方法的对抗攻击方法,并评估了其使用在进攻和隐私防御方面的效果。
Mar, 2019
提出了一种隐私保护的图表示学习框架,其中含有主要学习任务和隐私保护任务,并考虑了节点分类和链接预测作为两个感兴趣的任务,目标是利用互信息目标学习节点表示,同时获得隐私保护任务的性能接近随机猜测,并且实验评估了该框架在各种图数据集上的表现。
Jul, 2021
提出了一个简单而有效的个性化联邦学习框架,通过将客户端分组为多个集群并基于服务器端的模型训练状态和数据分布构建连接集群的图,使用加权边更新节点的模型参数,然后设计了一种精确的个性化模型分配策略,以允许客户端从服务器端获取最合适的模型。在三个图像基准数据集和三种类型的合成结构化数据集上进行了实验,实验结果证明了该方法的有效性。
Jan, 2024
该研究提出了首个集合鲁棒性证明,该证明可以同时保证图灵网络的多个预测结果在扰动下的不可被攻击性,并结合其局部性质使用多个单节点证明来构建强大的集合证明。
Feb, 2023
研究如何使用 Laplace 机制以不确定的理论基础为代价,在一个期望极大化框架内,通过使用集体图模型的形式化方法对真实充分的统计数据进行推理,以解决学习离散的,无向的图模型的问题,以在合成数据和真实的人员流动数据案例研究中获得比竞争方法更好的模型。
Jun, 2017
本文介绍了一种新的人脸聚类方法,将人脸聚类任务转化为成对关系分类任务,避免了在大规模图上训练所需的高内存消耗,并借助上下文信息以增强分类器性能。同时,引入排名加权密度来指导选择输入分类器的对。实验结果表明,该方法速度最快,内存消耗最小,并且在几个公共聚类基准上达到了最先进的性能。
May, 2022
在图机器学习中,数据的收集、共享和分析往往涉及多个参与方,每个参与方可能需要不同级别的数据安全和隐私保护。为此,在保护敏感信息方面,保持隐私非常重要。在大数据时代,数据实体之间的关系变得前所未有的复杂,越来越多的应用程序利用了支持网络结构和相关属性信息的先进数据结构(即图)。迄今为止,许多基于图的人工智能通过生成隐私保护图数据的方法和传输隐私保护信息(例如图模型参数)的方法来实现基于优化的计算,当在多个参与方之间共享数据是有风险或不可能时。除了讨论相关的理论方法和软件工具外,我们还讨论了当前的挑战,并突出了隐私保护图机器学习的若干未来研究机会。最后,我们构想了一个统一而综合的安全图机器学习系统。
Jul, 2023
提出一种隐私保护的分布式图学习框架,实现了在服务器端学习特征和距离的目标,同时保留了原始数据的结构属性,通过针对合成和真实数据集的广泛实验,证明了框架的有效性。
May, 2023
基于消息传递机制的图神经网络在图分类任务中取得了先进的结果,然而,在训练数据中存在噪声标签时,它们的泛化性能会下降。本文从数据隐私和模型效用的角度来衡量噪声标签对图分类的影响,发现噪声标签会降低模型的泛化性能,并增强对图数据隐私的成员推理攻击能力。因此,我们提出了一种针对有噪声标签的图分类的鲁棒图神经网络方法。该方法通过高置信度样本和每个类别的第一个特征主成分向量精确过滤噪声样本,然后利用鲁棒主成分向量和数据增强下的模型输出来指导双重空间信息引导的噪声标签校正。最后,引入监督图对比学习来增强模型的嵌入质量并保护训练图数据的隐私。通过在八个真实图分类数据集上比较十二种不同方法,验证了所提方法的效用和隐私性,与最先进的方法相比,在 30% 的噪声标签比率下,RGLC 方法分别实现了最大 7.8% 和最小 0.8% 的性能提升,并将隐私攻击的准确率降低到 60% 以下。
Jun, 2024
本文研究了图建模在解决安全问题方面的能力,重点是对抗机器学习中尚未解决的问题进行了探讨:基于图聚类技术和全局特征空间的对抗性攻击,同时提出了对抗性攻击的防御策略。
Aug, 2017