自注意力联想记忆
通过基于复值向量的关联记忆,不增加网络参数的情况下增强循环神经网络的新方法,与全息缩减表示和长短时记忆网络密切相关。与全息缩减表示不同的是,该系统创建存储信息的冗余副本,从而实现了减少噪声的检索。实验证明在多个记忆任务上的学习更快。
Feb, 2016
研究了基于记忆的神经网络在处理具有复杂关系的任务时的能力,提出了一种新的内存模块 RMC,它使用多头点积注意力机制来加强记忆之间的交互,达到了在多个领域的最先进结果。
Jun, 2018
本文描述了一种完全反馈的关联记忆模型,具有任意数量的层,其中一些层可以是局部连接的(卷积),以及相应的能量函数,该函数在神经元的激活动力轨迹上逐渐降低。该模型具有来自较高层的丰富反馈,以帮助较低层神经元决定它们对输入刺激的响应。
Jul, 2021
使用 Willshaw Memory 模型和 Multiple-Modality 框架实现稀疏编码,能够储存和检索大量的现实数据,并且支持多模态同步存储与检索以及缺失模式进行推理,该框架可用于其他的学习任务。
Jul, 2022
我们提出了一种稀疏存储器访问方案(Sparse Access Memory,SAM),实现了具有非常大的内存时的高效训练,SAM 在训练上的数据效率与现有模型相当,可以扩展到数千个时间步和记忆量的任务,同时可以适用于维护记忆之间时间关联的模型,如可微分神经计算机(Differentiable Neural Computer)。
Oct, 2016
介绍一种新的神经网络结构 —— 工作记忆网络,该网络在保持关系推理能力的同时将计算复杂度从二次降至线性,并在文本和视觉问题应用中取得了显著结果。
May, 2018
本文提出了一种名为 Rehearsal Memory (RM) 的方法,通过自监督的历史抽样式重复训练,设计了回忆和熟悉度等训练任务来提高对长序列的记忆,为了让记忆关注重要信息,设计了历史抽样器来选择有用的信息片段,通过 bAbI 任务、文本 / 视频问答和推荐等多种测试表明该方法大大提高了长序列推理的效率和精度。
Jun, 2021
提出了一种基于知识图谱的记忆增强自回归语言模型,通过检索相关关系以改善文本生成,实验结果表明,这种方法在困惑度和字符比特方面产生了更好的语言模型,并且关系记忆有助于生成的连贯性,是词元记忆的补充。
Jan, 2022
本文提出了一种双存储自组织架构用于实现终身学习,其中包含具有学习物体实例和类别的互补任务的两个增长式重复神经网络;通过在连续感官经历中扩展它们,这两个增长网络都能够提取出对未知数据更强的特征。
May, 2018
通过观察到关联记忆的能量函数可以被看作是概率建模的负对数似然函数,我们建立了一个桥梁,使得这两者之间的有益思想可以互相流动。在这项工作中,我们提出了基于能量的模型以适应新的上下文数据集,提出了两种新的关联记忆模型,通过关联记忆的工具,我们系统地研究了高斯内核密度估计器的记忆容量,并且研究了 transformers 中的一种实现选择,即规范化后的自注意力,在超球面上执行聚类。
Feb, 2024