AAAIJul, 2021

利用领域不可知和特定领域知识进行首字母缩写消歧

TL;DR本研究提出一种 Hierarchical Dual-path BERT 方法,该方法利用 RoBERTa 和 SciBERT 预训练模型来分别编码通用精细和高级具体表示,用于缩写消歧。实验结果表明,该方法在各种评估指标上均优于现有技术,特别是其宏 F1 达到了 93.73%。