在线持续学习用于室内物体识别的强健性
未来的自主智能机器人面临着从非重复稀疏数据流中学习、检测新颖性并具备无监督学习能力的挑战。本文通过提出一种名为 Continually Learning Prototypes (CLP) 的基于原型的方法,解决了这一挑战。CLP 在 FS-OCL 学习中表现出卓越的结果,在检测新颖性和无监督学习方面达到强基线水平。
Mar, 2024
本文提出了一种用于在线连续学习问题的简单算法,该算法采用 kNN 分类器和通用预先训练的特征提取器,可以在小的计算预算下紧凑存储和利用整个数据流,既能减少过往数据的灾难性遗忘,同时也能快速适应快速变化的数据流,同时在 Continual LOCalization (CLOC) 和 Continual Google Landmarks V2 (CGLM) 两个大规模 OCL 数据集上取得了最新的技术水平。
May, 2023
本文总结并讨论了最近采用突触正则化、结构可塑性和经验重放等技术解决连续流式数据学习时的灾难性遗忘问题的深度学习方法,并通过实证表明,与不采用经验重放的架构相比,在在线增量学习任务中,带有经验重放的架构通常更具有优势。
Mar, 2020
在自动驾驶领域,我们提出了一种基于分析原则和岭回归的无样本在线继续学习方法,用于解决自动驾驶中的连续学习问题,包括灾难性遗忘和数据不平衡,并通过生成偏移伪特征来处理数据不平衡。实验证明,我们的方法在自动驾驶数据集上表现优于其他方法。
May, 2024
本文提出了一个新的问题 ——Memory-Constrained Online Continual Learning (MC-OCL),我们通过 Batch-level Distillation(BLD)这种基于正则化的 CL 方法来解决这个问题,并在三个公开的基准测试中证明了我们的方法成功地解决了 MC-OCL 问题,同时实现了与需要更高存储开销的先前 distillation 方法相当的准确性。
Aug, 2020
在线连续学习中,通过在单通数据流中不断学习新数据并减轻灾难性遗忘的问题,本文分析了在新的学习任务中为何在线学习模型无法很好地泛化的快捷学习,然后提出了在线原型学习框架(OnPro),通过在线原型平衡和自适应原型反馈机制,达到良好分离所有已见类别、学习新类别的平衡状态,并在广泛使用的基准数据集上通过实验证明了 OnPro 相对于最先进的基准方法的卓越性能。
Aug, 2023
通过受海马体和新皮质概念学习理论启发,我们提出了一种新颖的框架来解决小样本类递增学习的问题,在两个对象分类数据集上评估了框架的性能,结果显示其具有类递增学习和小样本类递增学习的最新技术水平,并通过在机器人上演示表明我们的框架在有限的人类辅助下能够持续学习对大量家居物品进行分类。
Jul, 2023
在线连续学习中引入多层在线顺序专家 (Multi-level Online Sequential Experts, MOSE) 方法,通过多层监督和反向自蒸馏,培养模型为堆叠子专家,以实现学习新样本和保留过去知识的显著效果,大大提升 OCL 性能。
Mar, 2024
本研究重新审视了评估在线连续学习算法的适应性常见实践,我们发现旧的度量方式是不可靠的,建议采用基于消除虚假相关性的近期样本准确率的新度量方式来解决这一问题,并使用大规模数据集上的基准测试表明,保留和重复使用过去所看到的信息可以实现更好的泛化,我们相信我们的建议可以促进真正的自适应在线连续学习方法的发展。
May, 2023