Jul, 2024

原始文本就是您所需的:大规模语言模型的知识密集型多轮指导调优

TL;DR通过利用对话逻辑在生成大型语言模型的季节性多轮对话中的原始文档进行指令调整,本文介绍了一种名为R2S的新颖框架,该框架整合了开放源代码数据集和领域特定网络爬行文档的原始文档来创建基准K-BENCH,涵盖了维基百科(英文)、科学(中文)和手工艺品(中文)等多样的领域,从而在指令调整中注入了广泛的领域知识,提高了SFT模型的适应性和效果。