AAAIAug, 2019

为什么使用注意力?在 NER 案例中分析 BiLSTM 的缺陷及其解决方法

TL;DR本文针对 BiLSTM 核心模块在序列标注中的局限性进行分析,表明其在对每个词的交叉上下文模式建模上存在异或门局限。接着,通过两种跨度结构 ——self-attention 和 Cross-BiLSTM,有效地解决了这一问题,并在 OntoNotes 5.0 和 WNUT 2017 等真实数据集上验证了其优越性。