Dec, 2020

Mask-Align: 自监督神经词对齐

TL;DR本研究提出一种自监督的单词对齐模型 - Mask-Align,该模型利用目标序列上的完整上下文,在进行两步的处理,同时采用一种叫做漏洞关注 (leaky attention) 的注意力变体,对于特殊符号如句号,该变体有助于缓解跨项权重过高的问题,各项结果显示,该模型的性能优于以前的无人监督神经对齐器,同时取得了新的最优结果。