Jul, 2023

FDAPT:面向领域自适应的联邦预训练语言模型

TL;DR本文首次全面实证研究,将域自适应预训练 (DAPT) 与联邦学习 (FL) 结合,可以在保护数据隐私的同时,通过利用更敏感和分布式的数据来增强模型适应性。我们提出一种新的算法,Frozen Federated Domain-adaptive Pre-training (FFDAPT),平均节省 12.1% 的计算资源,并在 IID 和非 - IID 情况下均能保持与中心化模型相当的表现。