Sep, 2019

基于 Transformer 预训练的跨度联合实体和关系抽取

TL;DR本文介绍了一种轻量级的基于注意力机制的模型 SpERT,通过对 BERT 嵌入进行实体识别和过滤,以及基于标记的上下文表示进行关系分类,结合单 BERT 传递的高效负样例抽取方法,在多个数据集上取得了高于先前工作最高达 2.6% F1-score 的性能表现。