去中心化无标签医学影像的联邦对比学习
本文提出了一种基于设备的联邦对比学习框架用于皮肤病诊断,该框架使用深度学习、联邦学习和自监督学习等技术,可以利用多个设备上的无标注数据进行预训练,并在有限的标注数据上进行调整,实现了对皮肤病的高效诊断。
Feb, 2022
本研究提出了一种名为 FedLSM 的框架,用于在医学图像领域中解决标签集不匹配的问题,并在两个公共实际医学图像数据集上评估 FedLSM,证明其在分类精度上优于其他现有的 FL 算法。
Apr, 2023
设计了一个支持个性化语义通信的联邦对比学习 (FedCL) 框架,它通过在多个客户端之间协作训练本地语义编码器和基站所拥有的全局语义解码器来实现。该框架不需要客户端模型聚合,支持异构语义编码器。此外,为了解决分布式客户端间异构数据集引起的语义不平衡问题,我们采用对比学习训练语义质心生成器 (SCG)。该生成器获得代表性的全局语义质心,具有内语义紧凑性和跨语义可分离性。因此,它为学习有区分性的本地语义特征提供优越的监督。此外,我们进行了理论分析,量化了 FedCL 的收敛性能。仿真结果验证了所提出的 FedCL 框架在任务性能和稳健性方面相对于其他分布式学习基准的优越性,尤其在低信噪比和高度异构数据场景下。
Jun, 2024
在这篇论文中,我们研究了在高度不平衡数据集中利用公开可用的自监督辅助网络进行的客户端内类别间变化。根据这些发现,我们通过自监督先验(MAS)导引全局模型优化,提出了一种动态的平衡模型聚合方法。 Fed-MAS 可以与不同的本地学习方法一起使用,以实现对高度稳健和无偏的全局模型的有效聚合。
Jul, 2023
本文提出了一种轻量级框架,使客户端通过融合多个预训练模型生成的表示而不是从头开始训练大规模模型来共同学习;我们设计了一种基于原型的对比学习(FedPCL)方法,以原型为共享信息进行知识传递,从而提高各个客户端利用现有模型的能力并保持通信效率。
Sep, 2022
采用新的真实数据分布,提出一种名为 FedIIC 的隐私保护框架,该框架通过类内对比学习和共享全局样本的类间对比学习进行特征提取器的校准来缓解训练造成的偏差,并使用考虑难度的逻辑调整构造 softmax 交叉熵损失以确保所有类别的平衡决策边界。在公共可用数据集上的实验表明,FedIIC 在处理两种耦合问题的同时,具有更优越的性能。
Jun, 2022
本研究提出了一种名为 MOON 的简单有效的联邦学习框架,通过利用模型表示之间的相似性来纠正个体训练,即在模型层面上进行对比学习,实验结果表明,MOON 在各种图像分类任务中明显优于其他联邦学习算法。
Mar, 2021
应用自监督学习的联邦学习框架,通过使用 Vision Transformer 作为共识特征编码器进行无监督预训练,能够在各种真实非 IID 医学图像数据集上进行有效的表示学习,为多任务基础建模提供潜在的方法。
Jun, 2024
通过提出的分离联合学习(IsoFed)方案,本文研究了在半监督联邦学习中有效训练具有带标签和无标签客户端的方法,并在四种不同模态的医学图像数据集上评估了模型性能,并在不同的实验设置下验证了所提出方法的有效性。
Oct, 2023
我们提出了一种新颖的对比学习框架,以应对联邦学习中的数据异构性挑战。我们分析了本地训练期间客户端之间梯度更新的不一致性,并建立了其与特征表示分布的依赖性,从而导出了用于减轻局部偏差的监督式对比学习(SCL)目标。此外,我们表明,在联邦学习中简单采用 SCL 会导致表示坍缩,导致收敛缓慢且性能有限。为了解决这个问题,我们引入了一种放松的对比学习损失,对每个类别中过度相似的样本对施加差异惩罚。这种策略可以防止表示坍缩并增强特征可传递性,促进协作训练,并带来显著的性能提升。通过大量实验结果,我们的框架在标准基准上比所有现有的联邦学习方法都取得了巨大的优势。
Jan, 2024