Jun, 2024

利用有限资源进行 Transformer 联合学习而不共享模型

TL;DR使用名为 Fed-Grow 的联邦框架,设计了一个名为 Dual-LiGO 的架构来帮助多个参与者从其预训练的小模型扩展到一个 Transformer,以提高模型的准确性和资源利用率,并保护用户的隐私。