BriefGPT.xyz
Ask
alpha
关键词
linear attention model
搜索结果 - 1
EMNLP
基于线性关注力模型建模上下文,实现可扩展的文档级翻译
本文研究了一种基于 Peng et al. (2021) 的线性注意力模型,并通过句子门促进最近归纳偏置,以提高文档级机器翻译的效能和翻译质量,并在 IWSLT 2015 和 OpenSubtitles 2018 上进行了评估和测试,结果表
→
PDF
2 years ago
Prev
Next