EMNLPDec, 2022

把检索视为注意力:单个 Transformer 内检索和阅读的端到端学习

TL;DR通过使用 Retrieval as Attention (ReAtt) 和 Transformer,我们的研究表明,通过端到端的培训,单个模型可以同时实现有竞争力的提取和问答表现,在监督和无监督的设置中显著提高其在超领域数据集上的性能。