Sep, 2023

RGAT: 从更深的角度研究句法依赖信息对于共指消解的作用

TL;DR本文提出了一种将预训练的BERT与句法关系图注意力网络(RGAT)相结合的端到端解析器,用于深入研究句法依赖信息对于共指消解任务的作用。通过在公用的性别模糊代词(GAP)数据集上的实验,证明了在不微调整个BERT的情况下,我们将前一最佳模型(使用BERT的RGCN)的F1分数从80.3%提高到82.5%,相对于单个BERT嵌入的78.5%提高到82.5%。在另一个公共数据集OntoNotes 5.0上的实验结果表明,该模型通过融入RGAT中学习到的句法依赖信息也能提高性能。