EVCL: 弹性变分连续学习与权重巩固
该论文研究了在线学习中的连续学习,并介绍了使用概率正则化技术的两种主要方法,其中 Variational Continual Learning (VCL) 通过引入 FiLM 层等技术,得到了更好的性能表现。
Nov, 2020
本文提出变分连续学习 (Variational Continual Learning,VCL) 框架,它将在线变分推理 (Online Variational Inference, VI) 和神经网络中的蒙特卡罗变分推理 (Monte Carlo VI) 相融合,成功地在任务时序不断演变、全新任务涌现等复杂连续学习情景下对深度判别模型和生成模型进行建模并避免灾难性遗忘的发生。实验结果表明,在多种任务上,VCL 优于现有的连续学习方法。
Oct, 2017
本文介绍了 Elastic weight consolidation (EWC) 算法,该算法是为了保护神经网络免受灾难性遗忘而设计的。该算法可以被视为 Laplace 传播的一种近似,但本文指出 EWC 中的二次惩罚与该推导不一致,可能导致对更早任务的数据重复计数。
Dec, 2017
本文介绍了一种新的基于神经网络的连续学习算法 UCL,该算法通过引入新的 Kullback-Leibler 散度项解决了正则化方法的两个主要问题,并在监督学习任务和强化学习任务中表现出超过最新技术的优异性能。
May, 2019
提出基于循环神经网络(RNN)的连续学习模型,利用弹性权重合并法(EWC)处理输入分布的概念漂移,通过在两种不同类型的 RNN 之上实现和测试 EWC,比较了改进后的架构与 EWC 和 RNN 在标准连续学习基准测试中表现的差异,并高亮了需要专门解决 RNN 中的连续学习的问题。
Apr, 2020
本文研究了神经机器翻译中的无监督预训练方法,使用 Elastic Weight Consolidation 对双向编码器和解码器进行初始化,通过 fine-tune 来避免原始语言建模任务的遗忘,并将其与以前的正则化工作进行比较,结果表明使用这种方法可以快速收敛而且不需要原始未标记的数据。
Oct, 2020
该研究提出了一种利用权重融合方法的持续学习新方法,通过在每个新任务之后插值旧模型和新模型的权重,将两个模型合并,以便探索新概念到来后出现的局部最小值。实验结果表明,提出的权重融合方法明显改善了最先进的经验重放算法的性能。
Apr, 2024
在这项研究中,我们研究了增量学习(CL)的问题,其目标是在一系列任务中学习模型,使得先前任务的数据在学习当前任务数据时不可用。我们提出了一种称为 Continual Model Averaging(或 CoMA)的加权集成模型,它在保持稳定性的同时,通过利用可塑性,在当前任务上达到高准确性。我们还提出了一种改进的 CoMA 变体,称为 Continual Fisher-weighted Model Averaging(或 CoFiMA),通过利用模型权重的 Fisher 信息,有选择地对加权集合中的每个参数进行加权。这两种变体概念简单、易于实现,并在多个标准 CL 基准测试中实现了最先进的性能。
Dec, 2023