神经符号大脑
通过统计力学的视角,提出了在吸引子网络方面的 Hopfield 网络和 Boltzmann 机之间的相似性,并给出了恢复 Hebbian 范式的两种替代方法。同时,强调了铁磁体和运算放大器以及反铁磁体和触发器之间的映射。
Jul, 2014
论文探讨了如何设计分子系统以展现类似于自主学习的行为,提出了一种可对任意多个输入通道展现自主型 Hebb 学习的化学反应网络,并指出在构建新的化学系统和 DNA 系统中如何实现神经元动力学。
May, 2022
本研究介绍了 Emergent Symbol Binding Network (ESBN),它是一种采用外部记忆扩展的循环神经网络,能够通过一种变量绑定和间接储存的机制从学习过程中出现符号式表示,使得其能够在抽象规则的学习中达到几乎完美的泛化,摆脱了对显式加工符号的依赖。
Dec, 2020
本文研究了神经元人口编码和峰值时间相关可塑性机制如何整合进学习脉冲神经网络中,以及如何通过奖励调节峰值时间相关可塑性机制实现相关推理任务,并构造巨型知识图的脉冲神经网络表征。
Jul, 2022
基于我们的理论,我们为人工循环神经网络开发了一种新的初始化方案,优于需要学习时间动态的标准方法,并且提出了一种稳健的循环记忆机制,用于集成和维持方向信息而不需要环形吸引子。
Aug, 2023
基于神经网络的符号回归方法中引入了动态修剪,用于同时优化训练损失和表达复杂度,通过稀疏正则化适应性地调整修剪类型的目标稀疏度,并在多个数据集上证明了其有效性。
Jan, 2024
本文提出利用短期可塑性为脉冲神经网络提供与非脉冲神经网络不同的计算优势,并使用节约的局部突触可塑性模拟温度相关技术来解决网络计算困难性问题。这些网络在处理生成任务时表现出出色性能,在任务不平衡的情况下,它们甚至可以胜过传统算法。
Sep, 2017
本研究发现通过距离依赖性连接概率,可以克服兴奋性和抑制性尖峰神经元随机连接网络在进行计算时的不可靠性。在此基础上建立的空间扩展尖峰神经元网络可以展现出对称性破缺分岔现象,并能生成可进行动力学计算的时空模式。
Nov, 2016
本文探讨了 Vector Symbolic Architectures 中稀疏分布式表示下的符号推导,通过实验证明了基于块编码进行变量绑定的方法具有良好的性质,并在认知推理和分类等实际应用中展示了它的价值。
Sep, 2020
大脑针对处理时间序列信息,如何学习存储和检索序列记忆仍不清楚。本研究探讨了二元神经元回归网络如何学习序列吸引子以存储预定义的模式序列,并能够强大地检索它们。通过发展一种本地学习算法,证明了该算法能够使带有隐藏神经元的网络学习序列吸引子,且能够在合成和实际数据集上有效地存储和检索序列。希望本研究为理解大脑中的序列记忆和时间信息处理提供新的见解。
Apr, 2024