AAAIJun, 2022

多语言首字母缩略词抽取的领域自适应预训练

TL;DR本论文介绍了我们参加多语言首字母缩略词提取共享任务 SDU@AAAI-22 的发现。我们采用双向长短时记忆网络链条件随机场(BiLSTM-CRF)和多语言 XLM-RoBERTa 嵌入来处理多语言首字母缩略词提取。我们预训练了 XLM-RoBERTa 模型,以进一步适应共享任务的领域。我们的系统(团队:SMR-NLP)在所有语言的首字母缩略词提取方面都取得了竞争性的性能表现。