Aug, 2023
利用理由生成和密集检索使用较小的语言模型回答未见过的问题
Answering Unseen Questions With Smaller Language\\Models Using Rationale
Generation and Dense Retrieval
TL;DR在提供足够解释性上下文的情况下,较小的语言模型在挑战性的问答任务中表现出强大的推理能力,而问题在训练中是未见过的。我们评估了两种进一步改进这一设置的方法,具体为使用理由排名模型对生成的合理和真实合理性进行评分并使用得分来从知识源中生成组合上下文,以及通过训练较小的推理模型来利用长文本序列中的相关信息。普遍发现,两种方法都有效,但RATD方法更容易应用并在我们关注的未见设置中产生最佳结果。