BriefGPT.xyz
大模型
Ask
alpha
关键词
federated fine-tuning
搜索结果 - 2
面向异构通信的联邦低秩自适应
通过提出一种新的基于复制的填充策略来解决传统的联邦低秩适应方法中的稳定性问题,以实现在联邦细调过程中更好地利用高质量数据集,加速收敛速度并提高全局模型的预测质量。
PDF
9 days ago
ICLR
增强基础模型联邦微调中的数据质量
当前基础模型训练的情况表明,公共领域数据已接近枯竭,因此需要在多个专门化和高质量的私有领域数据源之间加强合作。为了解决本地训练模型而不共享私有数据所带来的质量控制问题,我们提出了一个针对基础模型的联邦微调的数据质量控制流程。该流程通过计算反
→
PDF
4 months ago
Prev
Next