赫布规范 - 霍普菲尔德网络关联记忆的容量
通过最小化概率流量,设计出一种具有指数级噪声容忍内存的 Hopfield 循环神经网络,该网络不仅能够实现 Shannon 信道容量界限,还可以高效地解决计算机科学中的隐藏社团问题,为来自生物学的计算模型的实际应用敞开了新的大门。
Nov, 2014
该论文使用多项式交互函数推广了著名的 Hopfield 模型,证明了该模型的存储能力随多项式次数增加呈指数级增长,并且具有与标准 Hopfield 模型几乎相等的吸引域大小。
Feb, 2017
调查现代 Hopfield 模型的内存检索动力学的计算限制,发现基于模式的范数的效率存在相变行为,仅在范数低于某个临界值时存在亚二次的高效模型;在此条件下进行内存模式的线性检索和输入查询序列的处理,证明了计算时间与存储模式数量和查询序列长度线性扩展的下界,并证明了其内存检索误差边界和指数级内存容量。
Feb, 2024
本文描述了一种完全反馈的关联记忆模型,具有任意数量的层,其中一些层可以是局部连接的(卷积),以及相应的能量函数,该函数在神经元的激活动力轨迹上逐渐降低。该模型具有来自较高层的丰富反馈,以帮助较低层神经元决定它们对输入刺激的响应。
Jul, 2021
本文提出了一个新颖的通用框架,可以将各种神经网络进行相似性、分离性和投影性等方面的比较,研究了类似 Hopfield 网络和现代连续 Hopfield 网络等各种记忆网络的运作机理,并发现在很多任务中,采用欧几里得距离或曼哈顿距离相似度测量比点积相似度测量更具优势,将使检索更加稳健、记忆容量更大。
Feb, 2022
关于现代霍普菲尔德网络(MHN),我们展示了大容量的记忆会削弱泛化机会,并提供了一种优化这种权衡的解决方案。该解决方案依赖于最小描述长度(MDL),在训练过程中确定存储哪些记忆以及存储多少记忆。
Nov, 2023
借助 Boltzmann 机的适当泛化 Hopfield 模型的结构化模式,构建了一个教师 - 学生自我监督学习问题模型,通过研究相图性质以及训练集大小,数据集噪声和推断温度对学习性能的影响,机器可以通过记忆来学习,并实现泛化学习。
Apr, 2023
通过引入非线性相互作用项扩增了模型的序列容量,提出了一种基于连续关联记忆的计算模型,验证了序列容量随网络规模的新的比例规律,并通过数值模拟验证了这些理论结果。此外,还引入了广义伪逆序列回忆规则,并将模型扩展到可以存储具有状态转换间隔变化的序列,提出了一种生物可信实现,与运动神经科学相关。
Jun, 2023
这项研究将能量模型和 Hopfield 网络的理论神经科学相结合,表明可以将离散模式的生成扩散模型训练解释为将 Hopfield 网络的关联动态编码到深度神经网络的权重结构中,实验证明连续 Hopfield 网络的存储容量与扩散模型的容量相同,为记忆的理论神经科学和生成模型建立了强大的计算基础。
Sep, 2023