本文描述了一种完全反馈的关联记忆模型,具有任意数量的层,其中一些层可以是局部连接的(卷积),以及相应的能量函数,该函数在神经元的激活动力轨迹上逐渐降低。该模型具有来自较高层的丰富反馈,以帮助较低层神经元决定它们对输入刺激的响应。
Jul, 2021
本文提出了一个新颖的通用框架,可以将各种神经网络进行相似性、分离性和投影性等方面的比较,研究了类似 Hopfield 网络和现代连续 Hopfield 网络等各种记忆网络的运作机理,并发现在很多任务中,采用欧几里得距离或曼哈顿距离相似度测量比点积相似度测量更具优势,将使检索更加稳健、记忆容量更大。
Feb, 2022
提出了一种微观理论,其中只需两体相互作用,就可以有效地描述大型关联内存,具有一定的生物可信度,并实现了能量最小化的动力学。
Aug, 2020
本文介绍了一种新的应用于序列数据建模的方法 —— 深度平衡模型,并比较其在大规模语言模型任务上的性能,该方法可通过求解根来直接获取固定点,训练和预测所需的内存只需常数级别,大大减少了存储消耗。
Sep, 2019
通过最小化概率流量,设计出一种具有指数级噪声容忍内存的 Hopfield 循环神经网络,该网络不仅能够实现 Shannon 信道容量界限,还可以高效地解决计算机科学中的隐藏社团问题,为来自生物学的计算模型的实际应用敞开了新的大门。
Nov, 2014
本文提出了一种基于元学习的能量记忆模型,通过使用任意神经结构作为能量模型并快速将图案存储在其权重中,实现了对合成和自然数据的压缩记忆,并在重构误差和压缩率方面优于现有的记忆系统。
Oct, 2019
关于现代霍普菲尔德网络(MHN),我们展示了大容量的记忆会削弱泛化机会,并提供了一种优化这种权衡的解决方案。该解决方案依赖于最小描述长度(MDL),在训练过程中确定存储哪些记忆以及存储多少记忆。
Nov, 2023
通过基于复值向量的关联记忆,不增加网络参数的情况下增强循环神经网络的新方法,与全息缩减表示和长短时记忆网络密切相关。与全息缩减表示不同的是,该系统创建存储信息的冗余副本,从而实现了减少噪声的检索。实验证明在多个记忆任务上的学习更快。
Feb, 2016
本篇文章介绍了一个简单而有效的策略,通过 Broyden's Method 的 Jacobian 估计来避免 DEQ 网络层的反向传播过程中需要解决的昂贵 Jacobian-based 方程。实验证明,仅通过再次使用此估计,就能显著加速训练同时不会导致任何性能退化。
Apr, 2023
我们提出了一个可配置的内存层次结构框架,旨在为深度神经网络 (DNNs) 的自适应内存访问模式提供数据,并在最小化所需内存容量的同时维持高加速器性能方面达到优化平衡。
Apr, 2024