该论文提出了一种基于课程学习的弱监督学习方法,通过对大规模网络图像数据进行无人工标注的深度神经网络训练,实现对大量噪声数据和数据分布不均等问题的有效处理和噪声标签的负面影响的显著降低,构建一种新的课程学习架构,使得使用高噪声标签的图像作为一种正则化策略可以惊人地提高模型的泛化能力,在 WebVision、ImageNet、Clothing-1M 和 Food-101 等四个基准测试中取得了最先进的性能,多模型集成的结果在 1000 种类别分类中取得了 5.2% 的 top-5 错误率,相对误差率超过 50%。
Aug, 2018
本文介绍了一种鲁棒性强的、端到端的深度弱监督学习框架,该框架通过随机分组和注意力机制来有效减少 Web 图片注释的负面影响,实现了对嘈杂标签的有效抑制和准确图像标注,实验证明了该方法的卓越性能。
Nov, 2016
本文提出了一种基于约束空间的弱监督学习方法,将不同的弱监督信号结合起来进行训练,在文本分类和图像分类任务中优于其他方法。
Sep, 2020
本文提出了一种基于 Self-Contained Confidence (SCC) 的深度神经网络 (DNN) 方法,以样本的可信度为基础,将自我标记自监督损失函数和 webly 监督损失函数进行有机融合,提出了一种简单而有效的网络学习 (WSL) 框架,实验验证后将表现提升至 WebVision-1000 和 Food101-N 两个大规模 WSL 数据集的最佳水平。
Aug, 2020
本文提出了一种使用大量网络数据来学习 CNN 的方法。具体地,我们利用了课程学习的思想,提出了一种 CNN 训练的两步方法,表现优异且鲁棒性强。我们使用这种方法在 VOC 2007 上实现了最佳性能,并在其中演示了网络监督学习的强大功能。
May, 2015
提出了 AutoWS 框架用于增加弱监督过程的效率,减少对领域专家的依赖性,使用少量标记的实例和自动创建标注函数的方法来指定嘈杂标签,然后通过一个下游歧别分类器将其聚合成概率标签。
Feb, 2023
本文介绍了一种新的基于聚类的样本选择算法,以存储每个已学食品的最具代表性数据,并借助平衡训练批次和知识蒸馏对增强样本进行有效的在线学习,以在所有已学类别上维护模型性能。在大规模食品图像数据库 Food-1K 上进行验证,表明该方法在实现食品图像分类的终身学习方面具有巨大潜力。
Aug, 2021
本文提出了一种利用变分自编码器(VAE)和类别级别监督来处理网络数据的方法,并在三个基准数据集上进行了实验证明其有效性。
Mar, 2018
本文研究了利用易获取的网络数据学习模型来辅助有标签数据集的细粒度图像分类。通过对 web 数据的处理包括对象定位和选择方法,本研究在降低数据分布差异的同时,优化了 CNNs 的训练,取得了良好的表现。
Dec, 2018
本文提出一种基于图像级别类别标签的弱监督语义分割算法,利用 Web 存储库中有关目标类别标签的视频检索并从检索到的视频中生成分割标签以模拟语义分割的强监督,该算法明显优于现有的同等监督方法,甚至与依赖额外标注方法的方法一样有竞争力。
Jan, 2017