单纯赫普菲尔德网络
引入了一种新型的 Hopfield 神经网络,具有连续状态和相应的更新规则,可存储指数数量的模式,具有很小的检索误差。该网络可用作深度学习架构的一层,以允许存储和访问原始输入数据、中间结果或学习原型,并提供池化、记忆、关联和注意机制。
Jul, 2020
本文描述了一种完全反馈的关联记忆模型,具有任意数量的层,其中一些层可以是局部连接的(卷积),以及相应的能量函数,该函数在神经元的激活动力轨迹上逐渐降低。该模型具有来自较高层的丰富反馈,以帮助较低层神经元决定它们对输入刺激的响应。
Jul, 2021
通过最小化概率流量,设计出一种具有指数级噪声容忍内存的 Hopfield 循环神经网络,该网络不仅能够实现 Shannon 信道容量界限,还可以高效地解决计算机科学中的隐藏社团问题,为来自生物学的计算模型的实际应用敞开了新的大门。
Nov, 2014
这项研究将能量模型和 Hopfield 网络的理论神经科学相结合,表明可以将离散模式的生成扩散模型训练解释为将 Hopfield 网络的关联动态编码到深度神经网络的权重结构中,实验证明连续 Hopfield 网络的存储容量与扩散模型的容量相同,为记忆的理论神经科学和生成模型建立了强大的计算基础。
Sep, 2023
本文提出了一个新颖的通用框架,可以将各种神经网络进行相似性、分离性和投影性等方面的比较,研究了类似 Hopfield 网络和现代连续 Hopfield 网络等各种记忆网络的运作机理,并发现在很多任务中,采用欧几里得距离或曼哈顿距离相似度测量比点积相似度测量更具优势,将使检索更加稳健、记忆容量更大。
Feb, 2022
利用 Fenchel-Young 损失函数,我们提出了一种稀疏 Hopfield 网络的统一框架,该网络与 transformers 中的 attention 有关,通过端到端可微分的稀疏变换实现更新规则,进而揭示了损失边界、稀疏性和准确内存检索之间的联系。同时,我们通过 SparseMAP 变换将该框架进一步扩展到结构化 Hopfield 网络,能够检索模式关联而不是单个模式。多实例学习和文本理据化的实验证明了我们方法的有效性。
Feb, 2024
通过引入非线性相互作用项扩增了模型的序列容量,提出了一种基于连续关联记忆的计算模型,验证了序列容量随网络规模的新的比例规律,并通过数值模拟验证了这些理论结果。此外,还引入了广义伪逆序列回忆规则,并将模型扩展到可以存储具有状态转换间隔变化的序列,提出了一种生物可信实现,与运动神经科学相关。
Jun, 2023
自优化模型结合海比学习规则、重复网络重置和编码网络中某个理想目标状态,以解决 SAT 问题中的组合问题,并展示了它在解决难题过程中可能出现的副作用和给人以启发。
Jul, 2023