BriefGPT.xyz
Ask
alpha
关键词
expert-specialized fine-tuning
搜索结果 - 1
专家坚持自己的领域:面向稀疏架构的专家专用微调技术
参数高效的微调(PEFT)是为了定制具有受限资源的大型语言模型(LLMs)而关键。本文研究了 Mixture-of-Experts(MoE)架构的 LLMs 上的 PEFT 方法,主要工作内容包括:(1)研究定制任务中激活的专家的集中程度,
→
PDF
23 days ago
Prev
Next