通过突触智能进行连续学习
人和动物终身学习,这对智能至关重要。我们在本章中研究了复杂内部突触动力学的可塑性机制在实现神经网络的终身学习能力中所起的关键作用。通过调查理论研究,我们强调了促进终身学习的两个基本因素:一是突触可塑性机制必须在多个行为相关的时间尺度上保持和演化内部状态;二是可塑性算法必须利用内部状态智能地调节单个突触的可塑性,以便实现对新记忆的无缝整合,并避免对现有记忆的干扰。我们的章节涵盖了这些原理在深度神经网络中的成功应用,并强调了突触元可塑性在维持终身学习能力方面的重要性。最后,我们概述了进一步研究的方向,以了解大脑卓越的终身学习能力,并利用类似机制来开发人工智能系统。
May, 2024
通过建立一个稳定性与可塑性均衡、具有多个学习模块的学习系统,我们提出了一种通用方法,可以适度减弱旧记忆在参数分布中的影响,以提高学习可塑性,并通过协调多学习者架构确保解决方案的兼容性。经过大量的理论和实证验证,我们的方法不仅明显提高了持续学习的性能,尤其是在任务增量设置中超过了突触正则化方法,还可能推进神经适应机制的理解,成为推动人工智能和生物智能共同进步的新范例。
Aug, 2023
通过研究任务增量设置和在线连续设置,本文提出了一些方法以解决神经网络的严重遗忘问题,并在不同的基准测试和学习序列上进行了评估,显示了连续学习技术现在的发展和应用面临的挑战。
Oct, 2019
使用生物学原理进入机器学习模型,我们开发了一种轻量级神经网络结构,通过突触可塑性机制和神经调制,通过本地错误信号进行在线继续学习,从而改善了传统方法的稳定性和记忆限制,在 Split-MNIST,Split-CIFAR-10 和 Split-CIFAR-100 数据集上表现出更好的在线继续学习性能,并在基于回放的方法上达到最先进的记忆密集型方法的性能水平,进一步通过将关键设计概念整合到其他反向传播的继续学习算法中,显著提高了它们的准确性。
Aug, 2023
终身学习对于人类和动物至关重要,然而,在机器学习和神经网络模型中,随着不断获取非静态数据分布的信息,由于 “灾难性遗忘” 或干扰而面临着困难。本论文对于人类生物系统中的终身学习因素进行了总结,并比较了现有神经网络方法的差异。
Feb, 2018
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了 11 种持续学习方法和 4 种基线的方法的强弱和影响。
Sep, 2019
本文提出了一种基于贝叶斯持续学习框架,以及在线学习规则用于进行神经形态工程,以实现能够适应变化学习任务的特性和风险管理,同时产生良好校准的不确定性估计的真正的神经形态系统的设计。
Aug, 2022
本文通过加入新神经元到深度神经网络的层中,探索了连续学习的潜力,并通过 MNIST 手写数字数据集和 NIST SD 19 数据集证明了神经发生有助于解决适应性机器学习算法中的稳定性和可塑性两难问题。
Dec, 2016