Oct, 2024

EnsemW2S:能否利用大规模语言模型的集成来获得更强大的语言模型?

TL;DR本研究聚焦于如何提升多个大规模语言模型(LLMs)的集体能力,以创建更强的模型,解决了人工智能对齐中的弱到强(w2s)泛化问题。我们提出了一种基于AdaBoost的集成方法,通过不同时任务上训练的弱模型指导在复杂任务上表现更强的模型,实验结果显示该方法在分类和生成任务上均超越现有基准,提升幅度高达14%。