- ICLRMemoNav: 为视觉导航选择信息性记忆
本研究提出了一种新的记忆机制 MemoNav,它通过保留有信息的短期记忆和长期记忆来提高多目标任务下图像目标导航的性能。实验结果表明,MemoNav 方法与最先进的方法相比,在使用更少的导航历史记录的情况下取得了更好的性能,并且更不容易被困 - ECCVTALLFormer:基于长期记忆 Transformer 的时间动作定位
提出 TALLFormer, 一种内存高效、可训练的时间动作定位 Transformer 方法,其长期记忆机制消除了在每个训练迭代中处理数百个冗余视频帧的需要,从而显著降低了 GPU 内存消耗和训练时间。
- 用于物体目标导航的对象记忆变换器
本研究针对三维室内环境目标物体导航,提出了一种基于强化学习方法的 Object Memory Transformer (OMT). 通过本方法在 AI2-THOR 数据集上的实验结果表明,OMT 能够优于以往方法,高效地导航以及实现目标。
- 欧拉状态网络:非耗散性储备计算
以数值解求解普通微分方程为灵感,本文提出了一种新颖的储层计算模型,名为欧拉状态网络(EuSN)。该方法使用向前欧拉离散化和反对称循环矩阵来设计储层动力学,这些动力学是通过构造稳定且无耗散的方式实现的。我们的数学分析表明,所得模型偏向于具有单 - ECCV事件神经网络
该论文介绍了一种名为 EvNets 的新型事件神经网络,该网络利用视频数据的冗余性达到了可观的计算节省,它的每个神经元都有提供长期记忆的状态变量,使得即使相机移动较大,也能在低成本时实现高精度的推理,同时该论文在高和低水平的视觉处理领域,包 - MM基于记忆增强的深度展开网络在压缩感知中的应用
提出一种新颖的具有持久性记忆的深度展开网络(MADUN)用于压缩感知问题,利用高吞吐量短期记忆和跨阶段长期记忆机制来保持和平衡信息,从而增强网络表示能力和性能,超过现有的最先进方法。
- ACL无穷记忆 Transformer
本文提出了一种无限长期记忆的 Transformer 神经网络,使用连续空间的注意机制来处理过长的信息序列,实现了对长序列的信息保持和处理。
- 不是所有的记忆都是平等的:通过过期学习遗忘
Expire-Span is a method that utilizes attention mechanisms to retain important information, forget irrelevant informatio - ACL自适应半参数语言模型
该研究提出了一种结合大型参数神经网络和非参数周期性记忆组件的语言模型,通过缓存本地隐藏状态和检索一组最近的邻居标记来使用扩展的短期上下文和全局长期记忆,并设计门控函数来自适应地组合多个信息源来做出预测。
- 线性 RNN 的隐性偏差
研究说明传统的循环神经网络(RNNs)在需要长期记忆的任务上表现不佳的原因是因为其随机初始化后的转移矩阵方差造成了梯度消失和梯度爆炸的问题,而使用线性 RNNs 代替时会出现更短的记忆偏差,这一理论经过人工数据和真实数据的验证。
- 梯度下降优化在流形上的平凡化
通过参数化的欧几里得空间,我们引入了一个框架来研究如何将具有多重约束的问题转化为无约束问题。在此基础上,我们提出了动态平凡化的两个族群,这些最优化方法介于平凡化和黎曼梯度下降之间,并结合了两者的优点。最后,我们展示了动态平凡化如何提高现有方 - ICLRAdam 及其发展的收敛性研究
通过给 Adam 算法加上‘长期记忆’过去梯度的方法,不仅可以解决收敛问题,而且经常提高算法的实验性能。
- 循环注意力单元
本文提出一种名为 Recurrent Attention Unit 的循环神经网络模型,它将注意机制融入了 GRU 的内部结构中并通过增加 attention gate 提高了 GRU 对于长期记忆的能力,对于序列数据能够通过自适应选择序列 - AAAI选择性经验回放用于终身学习
本文研究通过经验重放的方法,利用 “distribution matching” 算法来防止深度神经网络多任务学习中的严重忘却问题。实验探索了不同体验选择策略的优缺点,结果表明分布匹配算法可以成功避免严重忘却问题,并且在所有测试领域中始终表 - CVPRMAVOT: 基于内存增强的视频物体跟踪
该论文提出了一种基于外部记忆的一次学习方法来解决视频物体跟踪问题,可以处理多种复杂情况,并且在 VOT-2016 基准测试中表现良好。
- CVPR记忆增强网络下的视觉问答
本文采用记忆增强型神经网络,通过选择性地关注每个训练示例的内部和外部记忆块来预测视觉问题的准确答案。实验结果表明,所提出的算法在两个大规模基准数据集上具有优越的性能及与现有技术的比较。
- 长短期记忆自适应相关滤波器用于目标跟踪
提出了一种学习多个自适应关联滤波器的方法,同时具有目标外观的长期和短期记忆,以实现强大的物体跟踪,在大规模基准数据集上表现优异,尤其在效率、准确性和鲁棒性方面均优于现有的技术方法。
- NIPS不断增长的长期情景与语义记忆
本文介绍了一种利用快速但不可微的内容可寻址内存编码长序列经验和跨多个领域的语义知识的终身学习系统,从而在不受限制的领域上不断学习并存储知识,打开了探索迁移学习和利用过去学习经验到新领域的机会。
- 无记忆丢失的循环失活
本文提出一种新的循环神经网络正则化方法,通过在 extit {循环} 链接中直接删除神经元来实现,并且不会丢失长期记忆,实验证明,该方法即使与传统的前馈 dropout 相结合,也能在自然语言处理基准测试中取得一致的改进。
- 具有注意力机制的前馈网络可以解决一些长期记忆问题
我们提出了一种适用于前馈神经网络的简化注意力模型,并证明其可解决比这些任务的最佳出版结果更长和更广泛变化的序列长度的综合 “加法” 和 “乘法” 长期记忆问题。