May, 2023
知识增强的推理蒸馏:面向知识密集型任务的小型语言模型
Knowledge-Augmented Reasoning Distillation for Small Language Models in
Knowledge-Intensive Tasks
TL;DR提出了知识增强推理提炼(KARD)这一新颖的方法,以从外部知识库检索的增强知识fine-tune小型LM,来生成 rationale,并且进一步提出了神经重新排序器以获取与理性产生相关的文档。该方法在知识密集型推理数据集上显著提高了小型T5和Flan-T5模型的性能。