通过再生规范化维持可塑性
神经网络的塑性缺失意味着在学习过程中网络训练变得更加困难。我们通过改进初始化技术、提出新的正则化策略以及保持梯度多样性来改善持续学习,并证明这些替代技术在不同的监督学习任务和模型结构上能够提高持续学习性能。
Jun, 2024
本文研究了深度学习系统在持续学习环境下的表现,发现其容易出现失去可塑性现象,影响其对新数据的适应能力,但通过 L2 正则化和重启动某些不常用单元的连续反向传播算法,可以缓解和避免这种现象。
Jun, 2023
在神经网络的设计、初始化和优化的过程中,损失可塑性问题是一个关键因素。通过组合使用层归一化和权重衰减技术,可以在各种非平稳学习任务中有效地维持网络的可塑性,从而实现高度稳健的学习算法。
Feb, 2024
深度神经网络的持续学习面临着与固定数据集和凸连续学习模式不同的挑战,其中一个挑战是可塑性损失,即在线训练的神经网络显示出适应新任务的能力下降。本文通过一系列实验研究了深度增强学习中的可塑性损失和多种缓解方法,并发现在领域转移情况下可塑性损失普遍存在,许多解决方法在这种情境下失败,相反,一类 “再生” 方法能够在各种环境中保持可塑性损失的缓解效果,包括网格世界任务以及像《蒙特祖玛的复仇》和 ProcGen 这样更具挑战性的环境。
May, 2024
本文提出了一种正则化连续学习的新视角,将其定义为每个任务损失函数的二阶 Taylor 近似,得到了一个可实例化的统一框架,并研究了优化和泛化特性,理论和实验结果表明二阶 Hessian 矩阵的精确近似非常重要。
Jun, 2020
基于神经网络的高性能、高效样本视觉增强强化学习的主要研究领域之一是塑性。本研究通过系统性实证研究揭示了数据增强、评论者的塑性损失、塑性恢复等关键组成部分对塑性的影响,并提出了一种基于评论者塑性水平动态调整回放率来解决高回放率困境的策略,该策略在早期避免了塑性损失,并在后期重用更频繁的情况下提高样本效率。
Oct, 2023
探讨在 Atari 2600 游戏环境中使用基于价值的强化学习方法在面对不同程度的非随机性(non-stationarity)时,其所采用的策略的丧失学习能力现象,通过对不同维度条件下的实验结果,发现这种现象与网络中激活函数的稀疏性相关,本文提出的嵌入化 ReLU (CReLUs) 激活函数可以有效提高在环境变化中的持续学习能力。
Mar, 2023
提出了一种可扩展、高效且可解释的机器学习方法来表示循环塑性并替代基于径向返回映射算法的传统材料模型,通过实现物理信息正规化和背应力信息,以及最大程度上对神经网络的卸载,实现了在有限的训练数据量下的高精度和稳定性。该模型结构相对于文献中现有的解决方案更简单、更高效,并能表示完整的三维材料模型。通过采用 Armstrong-Frederick 运动硬化模型获得的替代数据进行了验证,均方误差被作为损失函数,该函数规定了几个限制条件:内部变量的去杂化特性,与流动规则的一致性,弹性和塑性步骤的区分以及流动规则的关联性,然而,后者对准确性的影响较小,这意味着该模型适用于广泛的内部变量演化规律。详细展示了模拟多个载荷情况的数值测试,并进行了准确性和稳定性的验证。
Mar, 2024
本文提出了一种选择性正则化方法,使用偏心特征蒸馏方法来判断是否执行模式完成或模式分离,并调节如何转移到前一模型的权重以保持先前知识,该方法在 CIFAR-100,ImageNet-Subset 和 ImageNet-Full 数据集上超越了现有方法的性能。
May, 2023