卷积与自注意力:重新解释预训练语言模型中的相对位置
本研究通过在自我关注机制中引入对序列元素相对位置或距离的表示,比绝对位置表示获得了更好的机器翻译结果。同时,将相对位置表示和绝对位置表示相结合并不能进一步提高翻译质量。
Mar, 2018
本文提出基于自我关注机制的绝对位置嵌入和相对位置嵌入方法,通过增加查询、键和相对位置嵌入之间的交互,进一步优化了位置信息的利用。其最有前途的一种方法是将绝对位置嵌入泛化,相比之前的位置嵌入方法,在 SQuAD1.1 上有更好的表现。本文还通过实验证明了相对位置嵌入方法具有合理的泛化性和鲁棒性。最后,还展示了这种新方法可以用于在小的计算预算下提高大型模型的准确性。
Sep, 2020
本文提出如何在关系抽取任务中使用自注意力和相对位置编码。使用一个位置感知的注意力层,利用相对位置编码使每个单词考虑其左右上下文,仅使用注意力机制,在 TACRED 数据集上表现显著提升。
Jul, 2018
本文研究了使用自我关注(self-attention)和动态卷积(dynamic convolutions)两种机制建立语言和图像生成模型的效率以及准确性问题,并证明了动态卷积在大规模机器翻译、语言模型和提取式摘要等任务中的表现优于强的自我关注模型,得到了 WMT'14 英德测试集中 29.7 BLEU 的最高分。
Jan, 2019
本文分析了现有语言模型的位置嵌入,发现其对于自注意力有着强烈的翻译不变性,并提出了一种解决方案 —— 翻译不变的自注意力模型(TISA),它可以以一种可解释的方式考虑标记之间的相对位置,而无需传统的位置嵌入,实验表明它在 GLUE 任务上的性能优于 ALBERT 模型。
Jun, 2021
本文提出了一种基于动态生成关系卷积核和聚合关系背景的关系特征变换 —— 关系自注意力 (RSA),用于视频理解。通过实验和消融研究,证明 RSA 网络在视频动作识别等领域明显优于传统卷积和自注意力网络。
Nov, 2021
通过在自注意力网络中采用相对位置编码方案,我们成功地让 Transformer 模型适应了语音数据的分散分布特点,并在 Switchboard 基准测试中获得了最佳识别结果,也在 MuST-C 语音翻译基准测试中获得了最佳出版结果,并且我们的模型能够更好地利用合成数据,并适应语音翻译的变量句子分割质量。
May, 2020
本文提出了用卷积学习输入表示替换变形器的正弦位置嵌入,并阐述其在提供长程关系方面的优势和优化特点,最终实现了在无额外语言模型文本下,librispeech 测试中 4.7%和 12.9%的字错率。
Apr, 2019
本文针对使用卷积操作在视觉任务中只关注局部局部信息、缺乏全局信息的不足,提出运用自注意力机制对视觉任务进行处理的方法;通过在图像分类和目标检测任务中实现卷积和自注意力的融合,可有效提高模型精度。
Apr, 2019