CVPRMar, 2018

通过重构过去与现在生成字幕的正则化循环神经网络

TL;DR本文提出了一种新颖的架构:auto-reconstructor network (ARNet),它与传统的 encoder-decoder 框架相结合,以端到端的方式生成标题,并采用先前的隐藏状态作为当前状态的输入,来重新构建状态,以帮助 RNN 的长期依赖建模。实验结果表明,我们的 ARNet 在图像标题生成和源代码标题生成任务上的性能都优于现有的编码器解码器模型,并且能显著降低训练和推理过程中标题生成的差异。