BriefGPT.xyz
大模型
Ask
alpha
关键词
unlearning
搜索结果 - 27
通过投影高效忘记在图表示学习中所学的知识
本文研究了图神经网络的表示学习中反遗忘问题,提出了 PROJECTOR 算法解决节点相关性等挑战,实验证明 PROJECTOR 高效可靠。
PDF
a year ago
WWW
异构联邦知识图谱嵌入的学习和遗忘
本文提出了一种新的 FL 框架 ——FedLU,用于异构的 KG 嵌入学习和遗忘,利用相互的知识蒸馏来处理数据异质性造成的局部优化与全局收敛之间的漂移,并提出一种基于认知神经科学的遗忘方法,结合了逆行干扰和被动衰减,通过重用知识蒸馏来从本地
→
PDF
a year ago
ICML
联邦不学习:如何高效删除 FL 中的客户端?
在保护用户隐私的前提下,提出了一种联邦学习模型中去除任意客户数据的方法,即通过执反向梯度下降法使局部经验损失最大化,以解决被遗忘权 (DP) 的问题,并在 MNIST 数据集上进行了实验验证。
PDF
2 years ago
快速而有效的机器遗忘
本文介绍了一种基于错误最大化噪声生成和损坏修复的权重操作方法的机器遗忘框架,该方法可以高效地针对单个或多个类别的数据从机器学习模型中删除,同时保持模型的高准确性,并且适用于各种深度网络设计,可为深度网络中的遗忘操作提供一种快捷且易于实现的方
→
PDF
3 years ago
忘记你想忘记的:机器遗忘算法
本文研究了在已训练好的模型中删除数据点的相关问题,特别是在凸损失的情况下提供了一个算法来取消学习的样本数,与差分隐私学习相比,演示了差分隐私和机器遗忘之间的新颖区别。
PDF
3 years ago
编码的机器遗忘
本文提出了一种编码学习协议,其利用线性编码器将训练数据编码成碎片,以便进行学习和 “完美取消学习”(unlearning),实验结果表明,相比未编码的基线,该编码机器学习方法提供了更好的性能与取消学习成本的平衡。
PDF
4 years ago
机器遗忘
该研究提出了一种名为 SISA 训练的框架,可在不同数据集、算法和难度的情况下,通过限制特定数据点在模型训练中的影响,加速机器学习模型的「忘记」过程,有助于实现更有效的数据治理。
PDF
5 years ago
Prev
Next