Oct, 2019

为什么使用Attention?分析与修复BiLSTM在建模NER的跨上下文方面的缺陷

TL;DR本论文针对BiLSTM模型的局限性,提出两种结构--自注意力和Cross-BiLSTM,用于命名实体识别并在OntoNotes 5.0和WNUT 2017语料集上实现明显且一致的性能提升。