图像类别增量学习通用双分支框架
该研究提出了一个统一框架来解决连续学习中的灾难性遗忘问题,并引入了一种创新的概念 —— 刷新学习,通过重新学习当前数据来提高学习性能,在连续学习基准测试和理论分析中取得了有效的结果。
Mar, 2024
该论文提出了一种增量学习框架,针对在线学习场景下的两个主要障碍,即新类的学习和旧类的新观测值的变化。通过引入修改的交叉蒸馏损失和两步学习技术来解决问题(1),并提供通过更新范例集合减轻问题(2)的简单而有效的方法,并在基于 Food-101 数据集的在线食品图像分类的真实应用中展示了该方法的性能。
Mar, 2020
本文提出了一种新的连续学习方法 Residual Continual Learning (ResCL),通过对网络参数进行线性组合并使用特殊的权重衰减损失函数,该方法可以避免在多个任务的顺序学习中出现灾难性遗忘现象,同时在各种连续学习场景下表现出最先进的性能。
Feb, 2020
一项新的增量学习方法使用少量的示例集合来学习深层神经网络,解决了深度学习中的灾难性忘记问题,在 CIFAR-100 和 ImageNet(ILSVRC 2012)图像分类数据集上取得了最先进的成果。
Jul, 2018
在这篇论文中,我们提出了一种名为 Split-and-Bridge 的新型持续学习方法,它通过部分分割神经网络进行新任务的训练,然后重新连接来学习任务间的知识,可以成功地解决 Deep Learning 社区中持续学习的主要问题之一,即如何在不遗忘以前任务的知识的情况下有效地学习一系列新到来的任务。
Jul, 2021
本文提出了一种两个主要组成部分的框架来避免类别增量持续学习中的灾难性遗忘,包括动态架构和训练过程,结果表明这种解决方案在医疗数据集上能够实现比现有技术水平更好的类别准确性和遗忘能力。
Mar, 2023
研究表明,使用简单的组件和一个平衡内部和外部任务学习的损失函数组合已经可以解决神经网络在新任务上学习所导致的经典遗忘现象。同时,报道了在类增量学习中,表示品质较差是另一个使经典遗忘现象出现的原因,并通过适当的正则化程序改进了性能。在这些发现的基础上,研究结果在 CIFAR-100 和 ImageNet 上均取得了国际领先的成果,方法简单易实现。
Feb, 2021
通过分析类增量学习中灾难性遗忘的原因,我们提出了一个两阶段学习框架,其中包括一个固定编码器和一个逐步更新原型分类器。我们的方法不依赖于保留的旧类别样本,是一种非范例基于的 CIL 方法。在公共数据集上的实验证明,我们的方法在保留每类 5 个示例和 10 个阶段递增设置下,比最先进的范例基于方法在 CIFAR-100 上提高了 18.24%,在 ImageNet100 上提高了 9.37%。
Aug, 2023
本文提出了一种新的无需回放的类增量学习方法,该方法通过学习两个互补学习子网络之间的协同作用,包括联合优化可塑性 CNN 特征提取器和解析前馈分类器来实现。该方法在训练期间不需要存储过去的数据,可以掌握新的课程,同时保持对以前学习过的课程的识别和知识保留。
Jun, 2023
本文提出并验证了一种纠正新旧类别数据不平衡问题的方法,利用一个线性模型矫正了全连接层的弱分类偏见,在两个大型数据集 ImageNet 和 MS-Celeb-1M 上比现有算法表现更好。
May, 2019