May, 2023

边缘计算中基于抽奖票剪枝的增强隐私效率联邦学习

TL;DR提出了 Fed-LTP,它是一种高效的隐私增强的联邦学习框架,能够通过稀疏到稀疏训练解决资源限制问题,并使用两种修剪方案(即基于权重的修剪和迭代修剪)生成被修剪的全局模型,拥有更好的通信、计算和存储效率,并采用基于拉普拉斯机制的模型验证实现更好的收益隐私权衡。