探究图像压缩对于类别增量学习的影响
食物图像分类系统在通过基于图像的膳食评估技术进行健康监测和饮食跟踪中起到了至关重要的作用。我们的工作探索了使用神经图像压缩来扩展缓冲区大小和增强数据多样性的概念,以此应对持续演变的数据,并在食品特定数据集和一般数据集上的广泛实验中展示了分类准确性方面的提高,这对于推进更具实用性的食物识别系统具有重要意义,同时可适用于其他领域的持续机器学习系统。
Apr, 2024
我们提出了一种新算法,通过使用我们的 Rehearsal-CutMix 方法在压缩过程中切割和混合之前类别样本的图像补丁与新图像,来增强先前类别知识的压缩。在 CIFAR 和 ImageNet 数据集上进行的大量实验证明,我们的方法在不同的增量学习评估协议下始终优于现有技术。
May, 2024
本文提出了一种基于压缩样本的识别模型的方法,通过动态压缩样本(通过 class activation maps 生成 0-1 遮罩屏蔽非鉴别性的像素点)并存入内存来实现无需进行手动注释的自适应压缩样本,通过在高分辨率的 CIL benchmarks(包括 Food-101, ImageNet-100, 和 ImageNet-1000)上进行了实验,结果显示,使用 CIM 压缩样本可以实现新的 CIL 精度的全新的最高水平。
Mar, 2023
该研究论述了在线持续学习图像分类问题,其中的任务可能包括新类别或数据非稳态。因为不同的实验设置以及不同的任务类别可能需要不同的方法,作者系统地比较了现有的 MIR,iCARL 和 GDumb 等方法,并评估了七个方法,以了解简单而有效的技巧对性能的影响,最终得出了 MIR 是一种强大而通用的在线持续学习方法。
Jan, 2021
利用经典和深度学习的图像压缩方法对基于深度学习的图像处理模型进行分析并比较,表明深度学习的压缩技术在 2D 情况下在保持预测准确性的同时显著优于传统方法,并对图像压缩对下游深度学习图像分析模型的影响进行评估。
Nov, 2023
在线持续学习在不断变化的数据流中直接学习,并存储来自该流中的最少量数据,本文通过对国内外文献中解决在线持续学习问题的方法进行实证评估,重点关注图像分类中的增量类别设置,通过比较在 Split-CIFAR100 和 Split-TinyImagenet 数据集上的平均准确率、遗忘性、稳定性和表示质量的指标,发现大多数方法都存在稳定性和欠拟合问题,但所学习的表示与相同计算预算下的独立同分布训练相当。同时发现基本的经验回放方法,经过适当调整和实施,是一种非常强大的基准方法。我们在 avalanche 框架上发布了我们的模块化和可扩展的代码库来复现我们的结果,并鼓励未来的研究。
Aug, 2023
通过引入一种新的示范超压缩和再生方法 ESCORT,将过去的图像压缩为视觉和文本提示,并通过预先训练的扩散模型生成多样化的高分辨率示范,从而显著提高了多个种类增量学习基准上的模型性能。
Nov, 2023
本文提出了一种简单但有效的方法来实现深度学习的连续增量学习,该方法结合了深层模型压缩、关键权重选择和渐进网络扩展的原理,在迭代中实现它们的集成,从而能够实现多种任务的增量学习,避免遗忘并保持模型的紧凑性。在实验中,该方法能够在不遗忘前面任务的情况下,增量学习处理多个任务的深度模型,同时对于单个任务的训练也具有更好的性能表现。
Oct, 2019
在视频持续学习中,我们提出了一种名为 SMILE 的新型重播机制,通过个体 / 单帧对有效视频持续学习进行了改进,并在 Kinetics、UCF101 和 ActivityNet 数据集上实现了最先进的性能,优于之前的最新技术达 21.49%。
May, 2023