- CVPRMAVOT: 基于内存增强的视频物体跟踪
该论文提出了一种基于外部记忆的一次学习方法来解决视频物体跟踪问题,可以处理多种复杂情况,并且在 VOT-2016 基准测试中表现良好。
- 生成模型中的变分记忆寻址
通过为生成模型增加外部内存,我们将内存模块的输出解释为条件混合分布,在这种分布中读操作对应着从内存中采样并且取回对应的内容。这个视角允许我们使用变分推理在进行内存寻址,从而通过使用目标信息指导对内存查找的方法来有效训练我们的内存模块以增强生 - ICLR使用连续缓存来改进神经语言模型
本文提出一种扩展神经网络语言模型以适应最近历史的方法,将过去的隐藏活性作为记忆保存,并通过与当前隐藏激活的点积来访问它们,此机制非常高效,能够扩展至非常大的存储空间。同时,作者指出了神经网络外部存储与基于计数的语言模型中缓存模型之间的联系, - NIPS具稀疏读写能力的记忆增强型神经网络的规模化
我们提出了一种稀疏存储器访问方案(Sparse Access Memory,SAM),实现了具有非常大的内存时的高效训练,SAM 在训练上的数据效率与现有模型相当,可以扩展到数千个时间步和记忆量的任务,同时可以适用于维护记忆之间时间关联的模 - EMNLP共享内存的深度多任务学习
本研究提出了两种深度神经网络结构, 加入外部记忆共享于多个任务中训练,实验表明该结构帮助相关任务,提高文本分类任务效果。
- 神经机器翻译中的增强记忆解码器
通过使用外部内存来增强神经机器翻译中 RNN 解码器的性能,我们提出了一种名为 MemDec 的基于内容寻址的 RNN 解码器。 通过在汉英翻译任务中的实证研究,我们发现 MemDec 相对于 Groundhog 和 Moses,可以提高 - 利用位置上下文和外部存储增强 LexVec 分布式词向量表示模型
本文通过改进正点互信息矩阵的分解方法和应用位置上下文提高了分布式单词表示的句法表现,并解决了 PMMI 矩阵存储需求的问题,实现了在外存上处理聚合数据,并使用词语相似性任务验证了两种改进方法的有效性。
- 记忆增强神经网络的单次学习
本研究证明了增强记忆功能的神经网络具有快速吸纳新数据和利用数据进行准确预测的能力,并介绍了一种基于内容而不是基于位置的外部记忆访问方法。
- 利用外部记忆的循环神经网络进行语言理解
使用外部内存改进循环神经网络以提高其记忆能力,在 ATIS 数据集上取得了最先进的结果。
- 强化学习神经图灵机 - 修订版
本研究通过使用带有外部存储器的神经图灵机,并提供相应的接口来扩展模型的能力,研究了使用离散接口(包括记忆带、输入带和输出带),通过强化学习方法训练神经网络来解决简单算法任务的可行性。我们的接口足够表达模型的图灵完备性。
- NIPS端对端记忆网络
本文介绍了一种具有循环注意力模型的神经网络,该模型可以扩展到可能很大的外部存储器,并被应用于各种任务,如(合成)问答和语言建模。同时,本文展示了多个计算步骤(跳数)的关键概念可以提高性能表现。
- 使用外部内存学习策略
本文探讨了在部分可观察领域中,行动取决于观察历史背景的问题,并提供了一种新的基于异步信息传递的策略算法 SARSA。研究结果显示,这个算法能够很好地解决这一问题。