EMNLPOct, 2023

Seq2seq 对于共指解析的全部需求

TL;DR本研究中,我们证明 task-specific 模型并非必需,通过微调预训练的 seq2seq transformer,将输入文档映射为编码指示共指标注的标记序列,我们的模型在多个数据集上表现优于或接近文献中最佳的共指系统。我们还提出了一种特别简单的 seq2seq 方法,仅生成标记的范围而不包含原始文本。我们的分析表明模型大小、监督数量和序列表示的选择是性能的关键因素。