Jun, 2023

侧抑制和领域适应在多语言多词表达式识别中的应用

TL;DR为在多语境环境下准确识别多词表达式 (MWEs),在所有第 1.2 版 PARSEME 语料库中可用的 14 种语言上对 mBERT 模型进行训练,并将侧向抑制和语言对抗性训练纳入方法中,以创建语言无关的嵌入并提高其识别多词表达式的能力,该方法在全球 MWE 识别中比 PARSEME 1.2 竞赛的最佳系统 MTLB-STRUCT 在 11 种语言中更好地实现,对于未见 MWE 识别中的 12 种语言,平均所有语言,我们的最佳方法在全球 MWE 识别上优于 MTLB-STRUCT 系统 1.23%,在未见全球 MWE 识别上优于 MTLB-STRUCT 系统 4.73%。