具备复杂突触的持续强化学习
本文研究表明,相较于静态网络,动态生长的神经网络在增量学习场景中表现更好,无监督学习使得训练更具挑战性,同时增加了研究的现实性,同时结构可塑性是防止非静态环境中的灾难性遗忘的有效方法。
Nov, 2018
本文提出了一个新的生命周期学习的方法,命名为记忆感知突触 (Memory Aware Synapses),它计算神经网络参数的重要性,并根据重要性进行惩罚以防止重要知识被覆盖,这与大脑学习过程的 Hebb 规则有相关性。在物体识别任务和嵌入学习任务中,该方法表现出最先进的性能。
Nov, 2017
终身学习对于人类和动物至关重要,然而,在机器学习和神经网络模型中,随着不断获取非静态数据分布的信息,由于 “灾难性遗忘” 或干扰而面临着困难。本论文对于人类生物系统中的终身学习因素进行了总结,并比较了现有神经网络方法的差异。
Feb, 2018
通过应用局部、始终开启的可塑性规则,我们能够在由两个群体组成的递归网络中学习复杂序列,我们的模型具有资源高效性,仅需少量神经元即可学习复杂序列,我们通过鸟鸣学习的模拟中展示了这些特点,在该模拟中,我们的网络首先学习了一个长的非马尔可夫序列,尽管存在外部干扰,它们能够稳健地复现此序列。
Feb, 2024
提出了一种利用深度生成网络结合图像分类和强化学习领域中的连续学习思想的模型,该模型具有双重记忆系统和伪回放系统,能够在 Atari 2600 游戏中完成顺序学习而不会遗忘前面的任务,并且随着任务数量的增加不需要额外的存储要求,存储原始数据或重新访问过去的任务。
Dec, 2018
通过添加上下文依赖的门控信号,使得只有稀疏且大多非重叠的单元模式在任何一个任务中处于活动状态,从而稳定 ANN 的连接权重,以减轻灾难性遗忘。该方法易于实施,计算开销小,并且在与权重稳定相结合情况下能够使 ANN 在大量顺序呈现的任务中保持高性能,这些工作提供了另一个神经科学启发的算法如何有益于 ANN 设计和能力的例子。
Feb, 2018