Oct, 2023

RECOMP: 通过压缩和选择性增强改进基于检索的语言模型

TL;DR将检索到的文档压缩为文本摘要,以降低计算成本并减轻语言模型的负担,以提高任务性能;在语言建模和开放域问题回答任务中,以最低为 6% 的压缩率实现性能上最小损失,并在给定一种语言模型训练方法时能够迁移到其他语言模型,并提供与检索文档基本一致的摘要。