ACLJun, 2021

卷积与自注意力:重新解释预训练语言模型中的相对位置

TL;DR该研究探讨了卷积和自注意力在自然语言任务中的关系,提出了一种将卷积融合到自注意力中的方法,并使用 BERT 在多个下游任务上验证了卷积相对于绝对位置嵌入的性能优势。