BriefGPT.xyz
大模型
Ask
alpha
关键词
full-parameter tuning
搜索结果 - 1
以通信成本不超过 18 千字节的方式对数十亿级语言模型进行联邦全参数调整
使用零阶优化技术以及一组随机种子,FedKSeed 提出了一种新颖的方法来在设备上直接对十亿级别的预训练大型语言模型进行联邦全参数调整,从而显著减少了服务器和客户端之间的传输需求,并通过策略评估 ZOO 扰动的显著性,提升模型准确度,我们的
→
PDF
7 months ago
Prev
Next