通过研究任务增量设置和在线连续设置,本文提出了一些方法以解决神经网络的严重遗忘问题,并在不同的基准测试和学习序列上进行了评估,显示了连续学习技术现在的发展和应用面临的挑战。
Oct, 2019
本论文提出了一种称之为强化连续学习的方法,该方法通过巧妙设计的强化学习策略为每个任务搜索最佳神经架构,不仅能够在防止灾难性遗忘方面有很好的性能,还能够适应新任务。在 MNIST 和 CIFAR-100 数据集的连续分类任务实验中,该方法优于现有的深度网络连续学习替代方案。
May, 2018
通过使用卡尔曼优化器将神经网络分成长期和短期记忆单元,并在 MNIST、CIFAR10、CIFAR100 数据集上进行了评估,与基准模型进行比较显示出我们的方法使模型能够不断学习和适应新的变化,而没有忘记以前学习的任务。
May, 2019
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了 11 种持续学习方法和 4 种基线的方法的强弱和影响。
Sep, 2019
探究如何将连续学习转变成在线学习的系统,可用于自我监督学习和机器人避免冲突,该系统采用 “内存感知神经元” 的方法更新关键性权重。
Dec, 2018
DELTA 是一种增强学习表示、解决长尾在线连续学习中类别不平衡问题的分离式学习方法,通过适应性有监督对比学习吸引相似样本和排斥不相似(非类内)样本,平衡训练期间的梯度并通过等化损失显著提升学习结果,并成功缓解了灾难性遗忘,扩展了增量学习的能力,超越了现有的 OCL 方法,对实际应用具有重大的潜在价值。
Apr, 2024
本文提出了一种更综合全面的衡量连续学习算法的方法,包括准确性、知识转移、内存占用和计算效率等多方面的度量,并将这些度量融合成一个评分,通过评估五种算法在 iCIFAR-100 数据集上的表现来证明这种方法的优越性。
Oct, 2018
在研究中,提出了一个更普遍的场景 OSAKA,即代理人必须快速解决新的(分布外)任务,并快速回忆起以前的任务。作者提出了 Continual-MAML 作为强有力的基准线,并在实验中证明,它比其他方法更适合新情况。
Mar, 2020
本研究全面综述了不断学习的基本设置,理论基础,代表性方法和实际应用,总结了不断学习的目标,并通过当前趋势,跨方向前景和跨学科与神经科学的联系开展了深入讨论。
Jan, 2023
我们提出了一种新颖的方法,利用低秩适应和任务算术,不断训练基于 Transformer 的视觉模型,绕过灾难性遗忘问题并减少训练计算需求。在每个类别仅使用 10 个样本的小内存的帮助下,我们的方法实现了接近于完整微调的性能,并通过严格的消融实验证明了我们方法的优势。
Nov, 2023