Jun, 2016

迭代交替神经注意力机制用于机器阅读

TL;DR我们提出了一种新颖的神经注意力架构,以解决机器理解任务,例如针对文档回答填空式查询的问题。与之前的模型不同,我们不将查询折叠成单个向量,而是使用迭代交替注意机制,允许对查询和文档进行细粒度的探索。我们的模型在标准的机器理解基准测试中,例如 CNN 新闻文章和儿童书籍测试 (CBT) 数据集中,优于最先进的基线。