BriefGPT.xyz
Ask
alpha
关键词
windowed attention
搜索结果 - 1
感受野对齐实现 Transformer 长度外推
研究了相对位置嵌入在语言模型上的应用,提出了基于对齐假设的自注意力机制,在训练过程中对齐输入,在测试过程中保证了相对位置嵌入的性质。提出的 Sandwich positional embedding 将比训练序列更长的信息融入模型之中,且由
→
PDF
2 years ago
Prev
Next