BriefGPT.xyz
大模型
Ask
alpha
关键词
intuition-mor1e
搜索结果 - 1
用于参数高效微调的直觉感知的一级专家的混合模型
多任务场景下,大型语言模型(LLMs)面临着适应性挑战,而《混合专家模型》(MoE)以其稀疏架构有效地解耦任务而成为一种有希望的解决方案。本研究设计了一种模仿人类大脑的新框架《Intuition-MoR1E》,利用实例的内在语义聚类处理多任
→
PDF
3 months ago
Prev
Next