具有大容量存储的联想记忆模型
通过最小化概率流量,设计出一种具有指数级噪声容忍内存的 Hopfield 循环神经网络,该网络不仅能够实现 Shannon 信道容量界限,还可以高效地解决计算机科学中的隐藏社团问题,为来自生物学的计算模型的实际应用敞开了新的大门。
Nov, 2014
通过引入非线性相互作用项扩增了模型的序列容量,提出了一种基于连续关联记忆的计算模型,验证了序列容量随网络规模的新的比例规律,并通过数值模拟验证了这些理论结果。此外,还引入了广义伪逆序列回忆规则,并将模型扩展到可以存储具有状态转换间隔变化的序列,提出了一种生物可信实现,与运动神经科学相关。
Jun, 2023
调查现代 Hopfield 模型的内存检索动力学的计算限制,发现基于模式的范数的效率存在相变行为,仅在范数低于某个临界值时存在亚二次的高效模型;在此条件下进行内存模式的线性检索和输入查询序列的处理,证明了计算时间与存储模式数量和查询序列长度线性扩展的下界,并证明了其内存检索误差边界和指数级内存容量。
Feb, 2024
文中介绍了一种基于赫布学习规则的神经网络模型,并研究了模式检索和容量特性,使用完全升级随机对偶理论得到精确的容量特性,并展示了快速升级收敛的结果。
Mar, 2024
本文描述了一种完全反馈的关联记忆模型,具有任意数量的层,其中一些层可以是局部连接的(卷积),以及相应的能量函数,该函数在神经元的激活动力轨迹上逐渐降低。该模型具有来自较高层的丰富反馈,以帮助较低层神经元决定它们对输入刺激的响应。
Jul, 2021
这项研究将能量模型和 Hopfield 网络的理论神经科学相结合,表明可以将离散模式的生成扩散模型训练解释为将 Hopfield 网络的关联动态编码到深度神经网络的权重结构中,实验证明连续 Hopfield 网络的存储容量与扩散模型的容量相同,为记忆的理论神经科学和生成模型建立了强大的计算基础。
Sep, 2023
本文提出了一个新颖的通用框架,可以将各种神经网络进行相似性、分离性和投影性等方面的比较,研究了类似 Hopfield 网络和现代连续 Hopfield 网络等各种记忆网络的运作机理,并发现在很多任务中,采用欧几里得距离或曼哈顿距离相似度测量比点积相似度测量更具优势,将使检索更加稳健、记忆容量更大。
Feb, 2022