基于联想存储模型的现实世界数据分类和生成
研究了一种关联记忆模型,建立了它与深度学习中神经网络的简单对应关系。这个模型可以存储并可靠地检索超过网络神经元数量的模式,可以应用到深度学习中的高次多项式的激活函数,实现或改进手写数字字符识别等任务。
Jun, 2016
我们通过将与记忆相关的信息作为输入来探索一种新的脑编码模型。在视觉 - 记忆认知任务中,我们发现非视觉脑部在很大程度上可以通过先前看到的图像进行准确预测。我们的记忆编码模型(Mem)在 Algonauts 2023 视觉脑竞赛中获胜,即使没有模型集成(单一模型得分 66.8,集成得分 70.8)。我们的没有记忆输入的集成模型(61.4)也获得了第三名。此外,我们观察到周期性延迟的脑响应与第 6-7 个先前图像相关,并且海马体的活动也与这种周期性保持一致。我们推测周期性重放可能与增强工作记忆的记忆机制有关。
Aug, 2023
本文提出了一种新颖的音频 - 视觉多模态桥接框架,它可以利用音频和视觉信息,并通过 associative bridge 从记忆网络中获取目标模态表示,将其应用于唇语阅读和静音视频的语音重建,具有当前最先进性能。
Apr, 2022
通过使用嵌入空间计算相似度,而不是像素空间,利用预训练的对比损失网络来计算嵌入,我们可以在较小的嵌入空间中更快地计算相似度分数,并且不需要存储整个数据集的像素空间。我们还提出了一种仅存储低维语义嵌入的记忆模型类别,并使用它们来检索类似但不完全相同的记忆。在 MNIST 数据集上的简单任务上,我们对这种方法进行了概念验证。
Feb, 2024
本文描述了一种完全反馈的关联记忆模型,具有任意数量的层,其中一些层可以是局部连接的(卷积),以及相应的能量函数,该函数在神经元的激活动力轨迹上逐渐降低。该模型具有来自较高层的丰富反馈,以帮助较低层神经元决定它们对输入刺激的响应。
Jul, 2021
通过观察到关联记忆的能量函数可以被看作是概率建模的负对数似然函数,我们建立了一个桥梁,使得这两者之间的有益思想可以互相流动。在这项工作中,我们提出了基于能量的模型以适应新的上下文数据集,提出了两种新的关联记忆模型,通过关联记忆的工具,我们系统地研究了高斯内核密度估计器的记忆容量,并且研究了 transformers 中的一种实现选择,即规范化后的自注意力,在超球面上执行聚类。
Feb, 2024
本文提出了一种基于自注意力的联想记忆算子(SAM),通过 SAM 可以将个别经历的存储(项目记忆)和它们之间的关系(关系记忆)分离,然后在一个序列模型中将这两种记忆体有机地联系起来,从而实现记忆和关系推理,该模型在各种机器学习任务中具有竞争力的表现,包括几何、图形、强化学习和问题回答等方面。
Feb, 2020