ACLJun, 2019
一种增强全局上下文的深度转换架构用于序列标注
GCDT: A Global Context Enhanced Deep Transition Architecture for Sequence Labeling
Yijin Liu, Fandong Meng, Jinchao Zhang, Jinan Xu, Yufeng Chen...
TL;DR本文提出了一种名为 GCDT 的序列标签模型,它采用全局上下文增强和深层转换结构来解决循环神经网络在全局信息建模和浅层连接方面的不足,通过两项标准序列标签任务的实验结果,证明该方法在 NER 和 Chunking 任务上均能超越以往最佳结果,且利用 BERT 作为附加资源可进一步提升性能。