Dec, 2023
通过深度生成潜变量进行数据集精炼的联邦学习潜力释放
Unlocking the Potential of Federated Learning: The Symphony of Dataset
Distillation via Deep Generative Latents
TL;DR基于深度生成模型的高效联邦学习数据集精简框架,在服务器端显著减少本地设备的计算和通信需求,提高客户端隐私,同时有效降低资源利用,通过理论分析和实证证据验证了其在高度异构的联邦学习环境中相较于非数据集精简技术的优越性,准确性提升高达40%,超过已有的数据集精简方法18%。