EMNLPOct, 2020

基于查询导向的稀疏 Transformer 的长文档排名

TL;DR本文介绍了一种名为 QDS-Transformer 的算法,它在 Transformer 自注意力机制的基础上,设计了稀疏的查询导向注意力机制,以在文档排序任务中实现本地化背景、分层表示和查询定向的邻近匹配,同时还具有稀疏性和计算效率。实验证明,QDS-Transformer 模型在全监督和少样本 TREC 排名基准中具有稳定和强大的优势。