Dec, 2022
跨领域自动术语提取中的 Transformer 集成
Ensembling Transformers for Cross-domain Automatic Term Extraction
Hanh Thi Hong Tran, Matej Martinc, Andraz Pelicon, Antoine Doucet, Senja Pollak
TL;DR本文在多语言跨领域设置中,提出了基于 Transformers 预训练语言模型的术语抽取的预测能力的比较研究。实验结果表明,除了荷兰语和法语之外,在所有语言中应用单语言模型的策略优于利用多语言模型的最先进方法。此外,将两个最佳模型的输出组合起来,可以取得显著的改进。