EMNLPOct, 2022

Cross-Align: 模拟深层跨语言相互作用以进行单词对齐

TL;DR提出一种基于多语言预训练模型的词语对齐方法,通过在浅层中利用共享的自注意力模块,将源语句和目标语句单独编码,而在较高层通过交叉注意力模块显式地构建跨语言交互,达到提高词语对齐质量的效果。通过采用两阶段训练框架,实现对模型的有效训练,实验结果在五对语言中有四对的性能达到了最新水平。