BriefGPT.xyz
Ask
alpha
关键词
moe-f
搜索结果 - 1
滤波而非混合:基于随机滤波的大语言模型混合的在线门控
提出了 MoE-F 机制,用于在在线时间序列预测任务中结合 N 个预训练的大型语言模型 (LLMs),通过自适应性地预测在每个时间步骤中 LLMs 预测的最佳加权。通过利用每个专家的运行表现中的条件信息,我们的机制可以预测最佳的 LLMs
→
PDF
a month ago
Prev
Next