ICLROct, 2021

基于知识蒸馏的模型无关联合学习

TL;DR该研究考虑设计一个通用的 API 用于联邦学习,但发现大多数基于知识蒸馏的联邦学习协议表现不佳,因此提出了一个新的理论框架(联邦核岭回归)来解决模型和数据异构性的问题,并根据知识蒸馏设计了新的协议,通过实验验证了该框架的理论预测。