BriefGPT.xyz
大模型
Ask
alpha
关键词
billion-parameter foundation models
搜索结果 - 1
离线调整:无需完整模型的迁移学习
本文提出一种名为 Offsite-Tuning 的隐私保护和高效的迁移学习框架,可以适应亿级基础模型到下游数据,同时保留各方的隐私,比现有的需要访问全部模型权重的微调方法在计算上更加高效。
PDF
a year ago
Prev
Next