Jun, 2024
利用有限资源进行 Transformer 联合学习而不共享模型
Federating to Grow Transformers with Constrained Resources without Model Sharing
Shikun Shen, Yifei Zou, Yuan Yuan, Yanwei Zheng, Peng Li...
TL;DR使用名为 Fed-Grow 的联邦框架,设计了一个名为 Dual-LiGO 的架构来帮助多个参与者从其预训练的小模型扩展到一个 Transformer,以提高模型的准确性和资源利用率,并保护用户的隐私。