通过任务启发式建模的自适应变分持续学习
本文提出变分连续学习(Variational Continual Learning,VCL)框架,它将在线变分推理(Online Variational Inference, VI)和神经网络中的蒙特卡罗变分推理(Monte Carlo VI)相融合,成功地在任务时序不断演变、全新任务涌现等复杂连续学习情景下对深度判别模型和生成模型进行建模并避免灾难性遗忘的发生。实验结果表明,在多种任务上,VCL优于现有的连续学习方法。
Oct, 2017
本文提出了 FO0-VB 算法来近似在线贝叶斯更新,以应对数据分布的非稳态性,以及在不使用外部存储器且只依靠现有体系结构的情况下,实现对不确定或未明确定义的任务边界的持续学习的优化,该方法在任务不可知场景下表现优异。
Oct, 2020
该论文研究了在线学习中的连续学习,并介绍了使用概率正则化技术的两种主要方法,其中Variational Continual Learning (VCL)通过引入 FiLM 层等技术,得到了更好的性能表现。
Nov, 2020
本研究全面综述了不断学习的基本设置,理论基础,代表性方法和实际应用,总结了不断学习的目标,并通过当前趋势,跨方向前景和跨学科与神经科学的联系开展了深入讨论。
Jan, 2023
本文提出了一个新的永续学习框架“理想永续学习器”(ICL),其通过构造保证避免了灾难性遗忘。我们证明了ICL统一了多种现有的永续学习方法,并为这些方法的优缺点提供了新的理论见解。最后,我们将ICL与现代研究领域中的经典主题和研究课题联系起来,以期激发未来的研究方向。
Apr, 2023
通过使用预训练的方法,我们提出了一个通用的框架来持续学习连续到达的任务,从一个理论的角度,我们将其目标分解为三个层次的组成部分,包括任务内预测、任务标识推断和任务适应预测,并提出了一种创新的方法来显式优化这些组件,通过参数高效的微调技术和表示统计量,我们在下游连续学习中实证展示了我们方法的优越性和普遍性,并进一步探讨了在上游连续学习中应用参数高效的微调技术的可行性,同时结合神经科学中的最新进展,讨论了所提框架的生物学基础。
Oct, 2023
通过基于方差的函数分析技术,在持续任务学习中探索了超参数选择的作用以及根据任务复杂度不断自动调整超参数的必要性,实证表明该方法可以持续地加快超参数优化速度并在不断变化的顺序任务中表现出鲁棒性,为现实应用中更高效、更稳健、更适应性强的持续学习方法做出了贡献。
Mar, 2024
该论文介绍了对于连续学习中的收敛性分析,提出了一种适应性方法用于非凸连续学习,该方法调整先前和当前任务的梯度的步长,以达到与 SGD 方法相同的收敛速度,并且在减轻每次迭代的灾难性遗忘项的情况下,改进了连续学习在几个图像分类任务中的性能。
Apr, 2024
我们对基于正则化的连续学习在一系列线性回归任务中进行了统计分析,重点在于不同正则化项如何影响模型性能。我们推导了作为先验估计器的收敛速率,考虑了由矩阵值超参数索引的广义l2正则化算法族,包括最小范数估计器和连续岭回归作为特例。随着任务的增加,我们推导了广义l2正则化估计器的估计误差的迭代更新公式,从中确定了导致最佳算法的超参数。有趣的是,超参数的选择能够有效平衡前向和后向知识转移的权衡,并适应数据异质性。此外,我们明确地推导出最佳算法的估计误差,它与先验估计器的误差同阶。相比之下,我们的最小范数估计器和连续岭回归的下界显示了它们的子优性。我们的理论分析的副产品是提出了在连续学习中早停和广义l2正则化之间的等价性,这可能具有独立的研究价值。最后,我们进行实验以补充我们的理论。
Jun, 2024