ICCVAug, 2023

迟滞:避免从标错样本中自信学习

TL;DR提出了一种新的框架 — 后期停止法,通过延长训练过程来利用 DNNs 的内在鲁棒学习能力,逐渐缩小嘈杂数据集并去除高概率错误标记的样本,由此保留了训练集中大部分的清洁困难样本,得到了在标准模拟和真实世界嘈杂数据集上优于现有方法的实验结果。