Jun, 2024

滤波而非混合:基于随机滤波的大语言模型混合的在线门控

TL;DR提出了 MoE-F 机制,用于在在线时间序列预测任务中结合 N 个预训练的大型语言模型 (LLMs),通过自适应性地预测在每个时间步骤中 LLMs 预测的最佳加权。通过利用每个专家的运行表现中的条件信息,我们的机制可以预测最佳的 LLMs 组合以预测时间序列的下一个步骤。通过将专家选择问题构建为有限状态空间、连续时间的隐马尔可夫模型 (HMM),我们可以利用 Wohman-Shiryaev 滤波器。我们的方法首先构建了 N 个并行滤波器,分别对应于 N 个单独的 LLMs。每个滤波器根据其拥有的信息提出其最佳的 LLMs 组合。随后,将 N 个滤波器的输出聚合以优化聚合 LLMs 的损失下界,可以通过闭合形式进行优化,从而生成我们的集成预测器。本文贡献包括:(I) MoE-F 算法 - 可作为即插即用的滤波器框架使用;(II) 提出的基于滤波的门控算法的理论最优性保证;(III) 使用最先进的基础和 MoE LLMs 在真实世界的金融市场动态预测任务上进行的实证评估和分析结果,其中 MoE-F 相对于表现最好的单个 LLM 专家获得了显著的 17% 的绝对值和 48.5% 的相对 F1 度量改进。