BriefGPT.xyz
大模型
Ask
alpha
关键词
position modeling
搜索结果 - 2
可长度推广的 Transformer
本文探讨了 Transformers 中的位置建模以及如何提高其对于长文本的预测能力,通过引入相对位置编码和块状因果注意力机制,可以有效提高模型的预测性能。
PDF
2 years ago
基于位置学习的非自回归 Transformer
本研究提出 PNAT,将位置建模作为非自回归文本生成过程的一个潜变量。实验结果表明,PNAT 在机器翻译和转述生成任务中取得了最佳结果,优于几个强基线模型。
PDF
5 years ago
Prev
Next