关键词neural attention models
搜索结果 - 4
- EMNLP抽象文本摘要中的地域性优化
本文研究了在长文本摘要场景中采用限定范围的模型是否能够提供比具有全局范围的模型更高的性能,并探讨了在不同层次(从句子到文档)的三种文本局部性,实验结果表明,采用局部化建模策略的模型具有更好的性能。
- 深度学习中神经注意力模型调查
该综述旨在提供一种全面的神经注意力模型开发和应用的现状和趋势的分析,系统回顾了数百种注意力模型的体系结构和应用,特别关注于卷积网络、循环网络和生成模型,描述了其在不同应用领域和神经网络可解释性上的影响。
- ACL用于序列到序列学习的经典结构化预测损失
本文研究了一系列经典目标函数,并将它们应用于神经序列到序列模型的训练,在 IWSLT'14 德语 - 英语翻译和 Gigaword 自动摘要等任务上达到了最新的最优结果。
- ACL论据推理理解任务:隐含担保的识别和重建
该论文提出了一种系统重建论据的方法,并在大规模集成式众包过程中实现了方法。该论文的目标是解决一个被称为 “论据推理理解任务” 的新挑战性任务,选择正确的隐式保证从两个选项中。使用了多种神经网络模型进行实验,但仍需要更好的模型来解决这个任务。