WWWFeb, 2023

异构联邦知识图谱嵌入的学习和遗忘

TL;DR本文提出了一种新的 FL 框架 ——FedLU,用于异构的 KG 嵌入学习和遗忘,利用相互的知识蒸馏来处理数据异质性造成的局部优化与全局收敛之间的漂移,并提出一种基于认知神经科学的遗忘方法,结合了逆行干扰和被动衰减,通过重用知识蒸馏来从本地客户端中抹除特定的知识并传播到全局模型。实验结果表明 FedLU 在链接预测和知识遗忘方面都取得了优秀的结果。