本文提出了一种新框架来解决 Class-Incremental 视频分类(CIVC)任务,它可以不断更新新类别,同时保持旧视频的知识,并利用视频的一些特性来更好地减轻遗忘的挑战。 在 Something-Something V2 和 Kinetics 数据集上进行评估,结果显示本文的方法显着优于之前的最先进的类别增量学习方法。
Jun, 2021
本文旨在针对视频动作识别领域提出一种有效的、高效的方法来解决模型不断学习的问题,包括使用模型信心或数据信息来选择可记忆的样本的方法,并针对此方法进行评估,得出了在小缓冲区的条件下表现出更高的学习效果。
Apr, 2023
解决视频字幕生成中的灾难性遗忘问题,通过细粒度敏感度选择和两阶段知识蒸馏方法,有效保持模型在新老任务上的性能。
Feb, 2024
在视频持续学习中,我们提出了一种名为 SMILE 的新型重播机制,通过个体 / 单帧对有效视频持续学习进行了改进,并在 Kinetics、UCF101 和 ActivityNet 数据集上实现了最先进的性能,优于之前的最新技术达 21.49%。
May, 2023
该论文提出了一种增量学习框架,针对在线学习场景下的两个主要障碍,即新类的学习和旧类的新观测值的变化。通过引入修改的交叉蒸馏损失和两步学习技术来解决问题(1),并提供通过更新范例集合减轻问题(2)的简单而有效的方法,并在基于 Food-101 数据集的在线食品图像分类的真实应用中展示了该方法的性能。
Mar, 2020
该论文在构建一个统一的概念和实验框架中,研究了解决神经网络过度拟合的方法,描述了增量学习算法的六个重要属性,探讨了过去样本选择的效用,并提供了可重现性的开源存储库。
Nov, 2020
研究表明,使用简单的组件和一个平衡内部和外部任务学习的损失函数组合已经可以解决神经网络在新任务上学习所导致的经典遗忘现象。同时,报道了在类增量学习中,表示品质较差是另一个使经典遗忘现象出现的原因,并通过适当的正则化程序改进了性能。在这些发现的基础上,研究结果在 CIFAR-100 和 ImageNet 上均取得了国际领先的成果,方法简单易实现。
Feb, 2021
研究使用生成对抗网络和网络抓取数据重现不可用的旧类数据,避免遗忘和背景类的数据分布变化,达到在连续学习中存在不同步骤和背景类分布变化的情况下更好的表现。
Aug, 2021
本论文提出了基于深度神经网络的一种新型增量学习方法,该方法基于知识蒸馏并采用一种规范的方式来有效地维护旧模型的表示,以适应新任务,克服了数据访问受限导致的灾难性遗忘问题,并在标准数据集上实现了显著的准确性改进。
Apr, 2022
数据回放是一种成功的图像增量学习技术,但在视频领域的应用尚不成熟。本论文首次探索了视频数据回放技术在增量动作分割中的应用,重点关注动作时间建模。我们提出了一种名为 Temporally Coherent Action (TCA) 的模型,通过生成模型来表示动作,而不是存储单个帧。引入了捕捉时间相干性的条件变量,使得我们的模型能够理解动作特征随时间的演化。在 Breakfast 数据集上进行的 10 个任务的增量设置中,我们的方法与基准方法相比,在精度上实现了最多 22% 的显著增长。
Mar, 2024