EMNLPDec, 2022
把检索视为注意力:单个 Transformer 内检索和阅读的端到端学习
Retrieval as Attention: End-to-end Learning of Retrieval and Reading within a Single Transformer
Zhengbao Jiang, Luyu Gao, Jun Araki, Haibo Ding, Zhiruo Wang...
TL;DR通过使用 Retrieval as Attention (ReAtt) 和 Transformer,我们的研究表明,通过端到端的培训,单个模型可以同时实现有竞争力的提取和问答表现,在监督和无监督的设置中显著提高其在超领域数据集上的性能。