BriefGPT.xyz
Ask
alpha
关键词
leaky attention
搜索结果 - 1
Mask-Align: 自监督神经词对齐
本研究提出一种自监督的单词对齐模型 - Mask-Align,该模型利用目标序列上的完整上下文,在进行两步的处理,同时采用一种叫做漏洞关注 (leaky attention) 的注意力变体,对于特殊符号如句号,该变体有助于缓解跨项权重过高的
→
PDF
4 years ago
Prev
Next