连续反向传播:带有持续随机性的随机梯度下降
该论文研究 “反馈对齐” 算法的数学特性,通过分析二层网络在平方误差损失下的收敛和对齐,证明在过度参数化的情况下,误差会以指数速度收敛,以及参数对齐需要正则化。该成果对我们理解生物学可行的算法如何不同于 Hebbian 学习方法,具有与非本地反向传播算法相当的性能提供了方法。
Jun, 2021
本文提出了两种生物启发机制,基于稀疏性和异构 dropout,显著提高了连续学习者在长时间序列任务中的表现,并在多项基准连续学习问题上展示了重大的性能提升。
Mar, 2022
在这篇论文中,我们展示了常用的算法(如 RMSProp 和 Adam)在调整步长向量时忽略了其适应过程对整体目标函数的影响,并通过简单问题的实验显示,与 RMSProp 和 Adam 相比,IDBD 算法可以持续改进步长向量。我们讨论了两种方法的差异和各自的限制,并建议将两种方法结合起来以提高神经网络在持续学习中的性能。
Jan, 2024
提出了一种新的算法 ProxProp,它通过隐式步骤而不是显式步骤更新神经网络训练期间的网络参数,该算法从后向传播算法的一般观点出发设计,将预测误差的反向传播与序列梯度下降步骤等效对应到二次惩罚能量上,具有下降方向的参数空间和与常见的一阶优化器 Adam 等相结合的优点。
Jun, 2017
深度表示学习方法在持续学习中面临着有用单元的灾难性遗忘和可塑性损失的困扰。本文介绍了基于效用的扰动梯度下降(UPGD)作为一种新的表示持续学习方法,通过梯度更新和扰动相结合的方式,在保护有用单元免受遗忘的同时,对不太有用的单元施加更大的修改来恢复其可塑性。在具有数百个非静态性和未知任务边界的连续学习问题中,我们证明了现有的许多方法都存在至少一种问题,主要表现为在任务上的准确性下降。相反,UPGD 在所有问题上继续提高性能,并超越或与所有方法竞争。最后,通过使用 PPO 进行扩展的强化学习实验,我们证明了在初始学习后 Adam 表现出的性能下降,而 UPGD 通过解决连续学习的两个问题来避免这种下降。
Mar, 2024
介绍了一种新算法,NoBackTrack,可用于训练动态系统参数,与传统算法相比,该算法无需进行时间反向传播,缩短计算和内存成本,并可扩展到包括递归神经网络在内的各种动态系统。
Jul, 2015
本文研究了深度学习系统在持续学习环境下的表现,发现其容易出现失去可塑性现象,影响其对新数据的适应能力,但通过 L2 正则化和重启动某些不常用单元的连续反向传播算法,可以缓解和避免这种现象。
Jun, 2023
本文探讨了在有限环境中增长任务数量的情景下,通过一种新的实验框架 SCoLe,借助随机梯度下降法,实现在长序列的任务中进行知识积累和保留,提出了一种改进的随机梯度下降方法以便于在此设置中进行继续学习的算法,并通过合适的实验框架展示了新的可持续性学习学习机制。
Jul, 2022
MuProp 是一种无偏的梯度估计器,用于训练包含离散采样操作的随机网络,并通过控制变量基于平均场网络的一阶泰勒展开来减少方差,其结果是无偏且经过良好的验证。
Nov, 2015