BriefGPT.xyz
Nov, 2017
计划、关注、生成:序列到序列模型的规划
Plan, Attend, Generate: Planning for Sequence-to-Sequence Models
HTML
PDF
Francis Dutil, Caglar Gulcehre, Adam Trischler, Yoshua Bengio
TL;DR
该研究研究如何将规划机制集成到序列到序列模型中,使用注意机制计算输入和输出序列之间的对齐来构建未来计划矩阵和承诺向量,提出的方法基于强化学习中的STRAW模型,该模型可以使用可微分运算进行端到端训练,且在字符级翻译、寻找Eulerian环路的算法任务和从文本生成问题等任务上的性能比强基线模型更好。
Abstract
We investigate the integration of a
planning mechanism
into
sequence-to-sequence models
using
attention
. We develop a model which can plan
→