Apr, 2017

反思读者:门控多跳注意力推理

TL;DR提出了一种基于 BiDAF 模型的 Ruminating Reader,通过增加多层注意力机制和信息融合组件来解决单次模型无法反思和纠正答案的问题。实验结果表明该模型在 SQuAD 数据集上显著优于基线模型,且超过了所有其他已发表的系统的性能。