BriefGPT.xyz
Ask
alpha
关键词
self-moe
搜索结果 - 1
自专家的自我分化大型语言模型
我们提出了一种名为 Self-MoE 的方法,将一个整体的 LLM 转化为由自身专业化的专家模块组成的组合式模块系统 MiXSE。我们的方法利用自我专业化,使用自生成的合成数据构建专家模块,每个模块都配备了共享的基础 LLM,并融入了自我优
→
PDF
19 days ago
Prev
Next