BriefGPT.xyz
大模型
Ask
alpha
关键词
offsite-tuning
搜索结果 - 2
EMNLP
CRaSh:聚类、剪枝和共享增强细调,无需完整大型语言模型
借助 CRaSh 方法,通过探索 Large Language Models (LLMs) 的模块化结构和表示相似性,本文研究了 Offsite-Tuning (OFT) 技术及其与后端模拟器之间的转换,提高其性能并解决隐私问题。研究发现模
→
PDF
8 months ago
离线调整:无需完整模型的迁移学习
本文提出一种名为 Offsite-Tuning 的隐私保护和高效的迁移学习框架,可以适应亿级基础模型到下游数据,同时保留各方的隐私,比现有的需要访问全部模型权重的微调方法在计算上更加高效。
PDF
a year ago
Prev
Next