Feb, 2019

使用预训练 Transformer 一次性提取多个关系

TL;DR本研究针对多关系抽取任务,提出仅需一次编码的解决方案,结合预先训练的自我注意力(Transformer)模型、结构预测层和实体感知注意力技术,能够在处理更长段落和大型文本语料库上具有可扩展性,且在标准基准测试 ACE2005 上实现了最好的效果。