Sep, 2023

RGAT: 从更深的角度研究句法依赖信息对于共指消解的作用

TL;DR本文提出了一种将预训练的 BERT 与句法关系图注意力网络(RGAT)相结合的端到端解析器,用于深入研究句法依赖信息对于共指消解任务的作用。通过在公用的性别模糊代词(GAP)数据集上的实验,证明了在不微调整个 BERT 的情况下,我们将前一最佳模型(使用 BERT 的 RGCN)的 F1 分数从 80.3%提高到 82.5%,相对于单个 BERT 嵌入的 78.5%提高到 82.5%。在另一个公共数据集 OntoNotes 5.0 上的实验结果表明,该模型通过融入 RGAT 中学习到的句法依赖信息也能提高性能。