强化学习神经图灵机 - 修订版
本文介绍了神经图灵机的概念及其与外部存储器资源的耦合,通过注意力过程交互,与图灵机或冯・诺伊曼体系结构相似,但可在端到端上进行微分,从而使其能够通过梯度下降进行高效训练。初步结果表明神经图灵机能够从输入和输出示例中推断出简单算法,如复制,排序和关联回忆。
Oct, 2014
本研究通过提出多种不同 memory 的 Neural Turing Machines (NTM) 来改进传统线性存储的 NTM 的缺陷,实验证明新的结构有助于提高模型收敛速度和预测精度。
Oct, 2015
本文介绍了 Lie-access 记忆模型,通过使用基于 Lie 群的控制器在键空间中移动头,实现相对索引,并利用 Lie 群提供的逆运算和恒等算子来保持可微分性,为算法性能提供强劲的支持。
Nov, 2016
本文介绍了基于 RNN 的 AI (RNNAIs) 框架及其在强化学习中的应用,该框架旨在学习其初始未知环境的预测模型,并在抽象推理和决策制定方面对其进行询问和利用,实现了 “学习思考” 的目标。
Nov, 2015
本文提出了一种名为 “TARDIS” 的新型记忆增强神经网络模型,利用记忆构建起到过去的虫洞连接,有效地缓解了梯度消失问题,提高了学习效率,并在不同的长期依赖任务中获得了竞争性结果。
Jan, 2017
提出了 Token Turing Machines (TTM),这是一种用于实现现实生活中序列视觉理解的序列自回归 Transformer 模型,它具有外部记忆,可以高效地处理长序列,其内存模块可以确保新的观察仅与记忆内容一起处理 (而不是整个历史记录),并在两个实际任务上比其他替代方案表现更好。
Nov, 2022
本篇文章提出了一种新的方法来缓解训练神经网络时非稳态带来的行为遗忘现象,利用模型内部的内隐记忆来进行实时样本生成,并侧重于优化实际的训练数据批次,从而高效和可扩展的进行训练。作者探讨了该方法与大脑模型的对应之处,并发现这种方法的高效特性是自然而然地产生的。
Jun, 2020