Aug, 2023

ConDistFL: 从部分标注数据进行条件蒸馏的联邦学习

TL;DR通过将联邦学习与知识蒸馏技术相结合,提出了一种名为ConDistFL的框架,通过合理设计的条件概率表示,从部分标注的数据中提取未标注的器官和肿瘤的知识,解决了训练可泛化模型所面临的数据访问限制的问题。在四个不同的部分标注腹部CT数据集上验证了该框架的有效性,并与基线模型FedAvg和FedOpt进行了比较,实验结果表明该框架明显优于基线模型。此外,对外部测试数据集的性能也表明,与单独训练在每个数据集上的模型相比,该框架具有较高的泛化能力。通过消减频繁聚合的需求,减少了联邦学习的通信成本。