联邦基础模型:大型模型的隐私保护和协同学习
综合调查了联邦基础模型(FedFM)领域,阐明了其与联邦学习(FL)的协同关系,并探索了 FL 研究领域在基础模型时代需要关注的新方法、挑战和未来方向。提出了一种系统的多层次分类法,对现有的 FedFM 方法进行了分类。全面讨论了关键挑战,包括如何使 FL 处理高复杂性的计算需求、隐私考虑、贡献评估和通信效率。这项调查强调了在 FedFM 领域进行进一步研究以推动创新的重要性,强调了开发可信解决方案的需求。作为研究人员和从业者参与这个跨学科和快速发展领域的基础指南。
Apr, 2024
该调查研究了基本模型(FM)在人工智能中的转化影响,重点关注其与联邦学习(FL)相结合在推进生物医学研究中的应用。基于巨大数据集通过无监督预训练、自监督学习、指导微调和人类反馈强化学习等方法训练的基本模型,如 ChatGPT、LLaMa 和 CLIP,代表了机器学习的重要进展。这些模型具有生成连贯文本和逼真图像的能力,在需要处理包括临床报告、诊断图像和多模态患者互动等多样数据形式的生物医学应用中发挥关键作用。将联邦学习与这些复杂模型结合起来,为利用其分析能力同时保护敏感医疗数据的隐私提供了有前途的策略。这种方法不仅提升了基本模型在医学诊断和个性化治疗方面的能力,还解决了医疗保健中数据隐私和安全的重要问题。该调查回顾了基本模型在联邦环境中的当前应用,强调了挑战,并确定了未来的研究方向,包括扩展基本模型、管理数据多样性以及提高联邦学习框架内的通信效率。旨在鼓励进一步研究基本模型和联邦学习的结合潜力,为突破性的医疗创新奠定基础。
May, 2024
通过将基础模型整合到联邦学习中,我们研究了其对稳健性、隐私和公平性的影响,并提出了一套应对这些挑战的标准和策略,同时确定了推进该领域的潜在研究方向,为构建可靠、安全和公平的联邦学习系统奠定了基础。
Feb, 2024
本文探讨了基础模型和联邦学习之间的相互作用,旨在深化其协同作用的理解并挖掘这两个领域的潜力,鼓励未来的研究方向,以进一步提高隐私保护和可伸缩性的人工智能系统的发展。
Jun, 2023
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
通过对 $2$ 个生物医学自然语言处理任务使用 $6$ 个语言模型评估联邦学习在医学领域的应用,结果显示:1)联邦学习模型在总体表现上优于单个客户数据训练的语言模型,有时甚至与整合数据训练的模型持平;2)当数据总量固定时,使用更多客户训练的语言模型表现较差,但基于预训练模型的转换器表现更加强劲;3)联邦学习训练的语言模型在客户数据独立同分布的情况下与整合数据训练的模型表现接近,但在非独立同分布数据下有明显差距。
Jul, 2023
通过联邦学习策略对基础模型进行适应性调整,以保护数据隐私和有价值的基础模型,提出了一种新方法 Federated Proxy Fine-Tuning (FedPFT),通过两个关键模块增强联邦学习下游任务中的基础模型的适应性。实验证据表明 FedPFT 方法的优越性。
Apr, 2024
提出了联邦式大规模语言模型(LLM)的概念,并讨论了其三个关键组成部分:联邦式 LLM 预训练、联邦式 LLM 微调和联邦式 LLM 提示工程。还探讨了联邦学习和大规模语言模型整合所带来的新挑战,并分析了现有解决方案和潜在障碍。
Jul, 2023