脑中序列的计算
本文提出 Partial In-Network Training(PINning)方法,基于随机网络架构和少量的连接修改,实现突触交互和外部输入的协作而不是前馈或非对称连接,高效地产生神经序列和工作记忆,此方法能够匹配细胞分辨率成像数据,并暗示神经序列可能从较大结构的神经网络中学习而来。
Mar, 2016
通过应用局部、始终开启的可塑性规则,我们能够在由两个群体组成的递归网络中学习复杂序列,我们的模型具有资源高效性,仅需少量神经元即可学习复杂序列,我们通过鸟鸣学习的模拟中展示了这些特点,在该模拟中,我们的网络首先学习了一个长的非马尔可夫序列,尽管存在外部干扰,它们能够稳健地复现此序列。
Feb, 2024
该研究探讨了大脑皮层神经回路中突触可塑性、神经元之间的连接和电信号传递,指出如何通过训练循环神经网络学习新任务并改变环境适应能力,同时发现人工网络和真实大脑使用相似的计算策略。
Dec, 2022
本文考虑在神经科学和机器学习之间建立联系,提出脑部通过优化各式各样的代价函数来实现数据高效学习和定向行为,其中包括关注、递归等结构体系和各种形式的短时和长时记忆存储,作者提出了未来神经科学试图改进和检验这些假设的方向。
Jun, 2016
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
本文探讨了人类学习机制中的组合性问题,并扩展了先前针对自然语言的神经网络研究到数学推理领域。研究发现,神经网络不仅能够学习到训练数据中的结构关系,而且能够将这些知识用于指导复合意义的组合。
May, 2021
使用数字序列预测任务评估神经网络模型解决算法问题的能力,并通过数字级和数字级问题的提供的两种数字序列预测问题类型,定义其复杂性和难度。实验结果表明,我们的数字序列预测问题有效地评估了机器学习模型的计算能力,并且没有解决通用斐波那契,算术或几何序列生成问题,表示队列自动机或图灵机的复杂性。
May, 2018