3FM: 多模式元学习用于联邦任务
引入 FedMultimodal,它是第一个 FL 基准,用于多模态学习,覆盖了来自十个常用数据集的五个代表性多模态应用程序,总共有八种独特方式。与现有的 FL 基准不同,FedMultimodal 提供了一种标准化方法来评估 FL 对实际多模态应用程序中的三种常见数据污染的鲁棒性:缺失模态,缺失标签和错误标签。
Jun, 2023
本文提出了一种新颖的多模态联邦学习方法 FedMVP,通过集成大规模预训练模型来增强联邦训练,解决了多模态数据集中可能丢失模态的问题,在客户端和服务器端分别采用不同的方法进行模态补全和模型聚合,并在实际图像 - 文本分类数据集上证明了该方法的卓越性能和对缺失模态的鲁棒性。
Jun, 2024
CreamFL 是一个支持多模态联邦学习的框架,实现了对客户侧使用异构模型结构和数据模态,从而提高了全局模型的复杂度和数据容量,同时使用公共数据集进行知识交流,并设计了全局本地交叉模态集成策略来聚合客户端表示。同时,它还提出两种模态间和模态内对比的策略来规范本地训练以达到全局的共识性。在图像 - 文本检索和视觉问答任务上的测试结果表明,它比目前流行的联邦学习方法要更好。
Feb, 2023
在视觉语言领域中,通过利用转换器架构对现有方法进行系统评估,并引入一种名为 FedCola 的新框架,填补了关于不配对的单模客户端和 FL 中转换器架构的研究空白。通过在各种 FL 设置下进行广泛实验,FedCola 展示了优于先前方法的性能,为未来多模态转换器的联邦训练提供了新的观点。
Apr, 2024
本文提出了一种新的多模态融合联邦学习方法 (FedMFS),通过利用 Shapley 值来量化每个模态的贡献和模态模型的大小来衡量通信开销,从而实现在性能与通信成本之间的灵活平衡,该方法在现实多模态数据集上的实验证明了其有效性,相比基线方法,减少了 1/20 的通信开销,同时达到可比的准确性。
Oct, 2023
提出并评估了一种名为 FedMM 的联邦多模态学习框架,该框架通过联邦训练多个单模态特征提取器来增强后续分类性能,以解决计算病理学中多模态信息融合的隐私问题。
Feb, 2024
元联邦学习通过优化的元汇聚器导航异构模型更新的复杂性,利用元特征增强了全局模型的性能,从而保证了对每个本地模型准确性的个性化汇聚。在四个与医疗相关的数据集上进行的实证评估显示,Meta-FL 框架具有适应性、效率、可扩展性和鲁棒性,优于传统的联邦学习方法。此外,Meta-FL 在较少的通信轮次中实现了优越的准确性,并且能够在不影响性能的情况下管理不断扩大的联邦网络,显示出卓越的效率和可扩展性。
Jun, 2024
通过知识从全局优势形式中转移,我们提出了一种新颖的跨模态渗透联邦学习(FedCMI)框架,有效缓解分布式条件下的模态失衡和知识异质性问题,并且在弱模态中促进局部特征开发,实现了公平的类别性能表现。
Dec, 2023
本文提出了一种名为 “Multimodal Federated Cross Prototype Learning (MFCPL)” 的新方法,针对数据中存在严重缺失模态的多模态联邦学习(MFL)问题,通过使用完整的原型样本在共享模态级别和特定模态级别上运用交叉模态正则化和交叉模态对比机制,为提供多样化的模态知识,引入交叉模态对齐来增强特定模态特征的整体性能,尤其在存在严重缺失模态的场景中表现出优异的效果。通过对三个多模态数据集的广泛实验,我们证明了 MFCPL 在减轻这些挑战和提高整体性能方面的有效性。
Jan, 2024
多模态机器学习和联邦学习在医疗领域具有重要意义,并提出了多模态联邦学习在医疗领域的最新方法。此外,研究还揭示了领域中现有挑战的局限性,并提出了未来发展的方向,以满足医疗应用中尖端人工智能技术和患者数据隐私的迫切需求。
Oct, 2023