高效沟通的多模态联邦学习:联合选择模态与客户端
本文提出了一种新的多模态融合联邦学习方法 (FedMFS),通过利用 Shapley 值来量化每个模态的贡献和模态模型的大小来衡量通信开销,从而实现在性能与通信成本之间的灵活平衡,该方法在现实多模态数据集上的实验证明了其有效性,相比基线方法,减少了 1/20 的通信开销,同时达到可比的准确性。
Oct, 2023
为了解决传统在多模态联邦学习中出现的模态失衡问题,提出了一种基于客户端的模态选择方案 CMSFed,该方案可以全面利用每个模态的信息,避免由模态不平衡引起的客户端选择偏差,通过选择性地使用不同模态的本地数据参与本地训练和聚合,来减轻全局模型的潜在模态失衡,并引入了一种新的局部训练损失函数来增强弱模态并调整由不一致的模态采用策略引起的特征空间差异,同时设计了一种模态级梯度解耦方法来维持选择过程中的梯度差异,并根据每次迭代中的本地模态失衡平衡多模态联邦学习。大量实验证明了 CMSFed 的优越性和其在多模态数据利用中的有效性。
Dec, 2023
本文提出了一种新颖的多模态联邦学习方法 FedMVP,通过集成大规模预训练模型来增强联邦训练,解决了多模态数据集中可能丢失模态的问题,在客户端和服务器端分别采用不同的方法进行模态补全和模型聚合,并在实际图像 - 文本分类数据集上证明了该方法的卓越性能和对缺失模态的鲁棒性。
Jun, 2024
我们提出了一种面向联邦学习领域的新方法,特别关注应对模态异质性、客户端间模态可用性的差异和缺失数据的问题。我们介绍了一个专为多模态联邦任务设计的元学习框架,并通过对增强的 MNIST 数据集进行广泛的实验验证了我们提出的框架的有效性。我们的算法在一些缺失模态场景中通过元学习率的精细调整,实现了比基线更好的性能。
Dec, 2023
引入 FedMultimodal,它是第一个 FL 基准,用于多模态学习,覆盖了来自十个常用数据集的五个代表性多模态应用程序,总共有八种独特方式。与现有的 FL 基准不同,FedMultimodal 提供了一种标准化方法来评估 FL 对实际多模态应用程序中的三种常见数据污染的鲁棒性:缺失模态,缺失标签和错误标签。
Jun, 2023
提出并评估了一种名为 FedMM 的联邦多模态学习框架,该框架通过联邦训练多个单模态特征提取器来增强后续分类性能,以解决计算病理学中多模态信息融合的隐私问题。
Feb, 2024
CreamFL 是一个支持多模态联邦学习的框架,实现了对客户侧使用异构模型结构和数据模态,从而提高了全局模型的复杂度和数据容量,同时使用公共数据集进行知识交流,并设计了全局本地交叉模态集成策略来聚合客户端表示。同时,它还提出两种模态间和模态内对比的策略来规范本地训练以达到全局的共识性。在图像 - 文本检索和视觉问答任务上的测试结果表明,它比目前流行的联邦学习方法要更好。
Feb, 2023
本文提出了一种名为 “Multimodal Federated Cross Prototype Learning (MFCPL)” 的新方法,针对数据中存在严重缺失模态的多模态联邦学习(MFL)问题,通过使用完整的原型样本在共享模态级别和特定模态级别上运用交叉模态正则化和交叉模态对比机制,为提供多样化的模态知识,引入交叉模态对齐来增强特定模态特征的整体性能,尤其在存在严重缺失模态的场景中表现出优异的效果。通过对三个多模态数据集的广泛实验,我们证明了 MFCPL 在减轻这些挑战和提高整体性能方面的有效性。
Jan, 2024
通过知识从全局优势形式中转移,我们提出了一种新颖的跨模态渗透联邦学习(FedCMI)框架,有效缓解分布式条件下的模态失衡和知识异质性问题,并且在弱模态中促进局部特征开发,实现了公平的类别性能表现。
Dec, 2023
本文提出一种多模态和半监督联邦学习框架,利用自编码器从不同本地数据模态中提取共享和相关表示,并使用多模态 FedAvg 算法聚合不同数据模态上训练的本地自编码器。实证结果表明,引入多模态数据可以提高联邦学习的分类性能。
Sep, 2021