人体活动识别的联邦遗忘
本研究探讨了隐私对离散的人类活动识别(HAR)在用户、环境和传感器级别上影响的问题,并发现隐私对 FL 系统的影响因传感器数据的不同共存而异。在传感器数据的隐私保护方面,训练一个通用的 FL 模型和一个每种感觉模式的组级模型互相训练是可行的,只会使准确率降低 7-13%。
May, 2023
本研究调查了联邦学习中取消学习的背景概念、经验证据和实际指南,提出了一种新的分类法对最先进的取消学习算法进行详细分析,并确定了该领域最有前景的研究方向和尚未解决的技术挑战。
Jan, 2024
在联邦学习中,提出了一种新颖的联邦遗忘方法,通过从模型中减去历史累积更新来消除客户端的贡献,并利用知识蒸馏方法恢复模型的性能,而不使用来自客户端的任何数据。该方法不依赖于客户端的参与,不对神经网络的类型有任何限制,并引入后门攻击来评估遗忘效果。实验结果表明了本文方法的有效性和效率。
Jan, 2022
本文提出一种元学习的联邦表示学习框架 Meta-HAR,将信号嵌入网络联邦元学习,再将学习到的信号表示馈入每个用户的个性化分类网络进行活动预测,从而在维持高测试准确性的同时实现了个性化,并且在多个基线测试中表现显著优于 Federated Averaging、Reptile 和甚至某些情况下的集中式学习。
May, 2021
这篇论文从事一项关于联邦消除学习(federated unlearning)的研究,通过对已发表的联邦学习消除(FL unlearning)相关论文的分类和分析,探讨了联邦学习消除领域的研究趋势和挑战,比较了现有联邦学习消除方法的影响消除和性能恢复能力,以及他们的假设和局限性。该研究为未来联邦学习消除的研究提供了洞见和建议。
Mar, 2024
在保护用户隐私的前提下,提出了一种联邦学习模型中去除任意客户数据的方法,即通过执反向梯度下降法使局部经验损失最大化,以解决被遗忘权 (DP) 的问题,并在 MNIST 数据集上进行了实验验证。
Jul, 2022
本文提出了一种新的 FL 框架 ——FedLU,用于异构的 KG 嵌入学习和遗忘,利用相互的知识蒸馏来处理数据异质性造成的局部优化与全局收敛之间的漂移,并提出一种基于认知神经科学的遗忘方法,结合了逆行干扰和被动衰减,通过重用知识蒸馏来从本地客户端中抹除特定的知识并传播到全局模型。实验结果表明 FedLU 在链接预测和知识遗忘方面都取得了优秀的结果。
Feb, 2023
本研究旨在研究联邦学习(FL)系统中的机器非重学习问题,提出了一种快速数据淘汰方法以保护数据隐私,并在四项真实数据集上进行了测试和分析。
Mar, 2022
调查了联邦学习大型语言模型的最新进展,重点关注了机器遗忘这一关键方面,以符合数据隐私和被遗忘权等隐私法规;通过探索各种策略,如扰动技术、模型分解和增量学习等,而无需从头重新训练,实现从联邦学习的大型语言模型中安全有效地删除个别数据贡献,强调它们对于维持模型性能和数据隐私的意义;此外,通过案例研究和实验结果,评估这些方法在实际场景中的有效性和效率;调查揭示了在人工智能伦理和分布式机器学习技术交叉领域中发展更强大和可扩展的联邦遗忘方法的日益关注,也为未来研究提供了重要领域。
Jun, 2024