利用粗略标签进行弱监督表示学习
通过最近邻分类器目标和自监督学习的实例损失,结合粗标签和潜在细粒度空间,学习细粒度表示来提高图像检索的精度,从而在 iNaturalist-2018 等五个公共基准上建立了新的最先进技术。
Nov, 2020
本文提出了一种多任务学习框架,同时优化分类和相似性约束,将标签结构(如层次结构或共享属性)嵌入到框架中以建模多级相关性,从而实现精细的特征表示,并在细粒度数据集上得到了非常竞争的性能。
Dec, 2015
本文介绍了一种鲁棒性强的、端到端的深度弱监督学习框架,该框架通过随机分组和注意力机制来有效减少 Web 图片注释的负面影响,实现了对嘈杂标签的有效抑制和准确图像标注,实验证明了该方法的卓越性能。
Nov, 2016
该论文提出了一种基于无标签干扰数据集训练深度卷积神经网络的新型框架,并使用一个无向图模型来描述干净和嘈杂标签之间的关系,在监督学习过程中学习这个模型。该模型在图像标注问题上应用,并在 CIFAR-10 和 MS COCO 数据集上展示出有效的标注效果和在训练中实现了减少标签噪声的效果。
May, 2017
This paper proposes a method to improve the robustness of deep learning models in the presence of noisy labels by utilizing unsupervised learning and cluster regularization.
Jul, 2023
本文提出了一种基于深度卷积神经网络的学习系统,该系统对视觉相似的类别进行聚类,并学习针对每个子集的特定深度卷积神经网络特征,在测试时不需要边界框。在流行的 Caltech-UCSD 鸟类数据集上,实验证明该方法优于最近的细粒度分类方法,无需边界框,在最困难的情况下达到了 77.5% 的平均准确率,而先前的最佳表现为 73.2%。本文还表明,渐进式迁移学习使我们能够先学习通用领域的特征,然后将其调整到特定的鸟类集合中,从而提高准确性。
May, 2015
本研究探讨了深度学习中中间层所提取的深层特征,并证明了这些特征的性能可能不佳,因为它们是通过最小化经验风险来学习的。针对当前任务与基准数据集的数据分布不同的情况,本研究提出了一种层次稳健优化方法来学习更通用的特征。该方法同时考虑了 example-level 与 concept-level 稳健性,并将问题公式化为带有 Wasserstein 模糊集约束的分布稳健优化问题。本文提出了一种高效的算法,并在标杆数据集上进行了实验,证明了稳健特征的有效性。
Nov, 2019
本文提出了一种基于元学习的跨层级少样本分类方法,通过基于图像嵌入的贪心聚类来近似细粒度标注,同时引入元嵌入器使得模型可以在训练时仅观察粗略标签,并在测试时执行细粒度分类,实验结果表明该方法的有效性和鲁棒性。
Jul, 2020
该研究提出了一种基于粗到细粒度的分类,使用标签表面名称和预训练的生成式语言模型,生成虚假数据训练分类器并用于模型优化,实验证明在两个真实数据集上比零 - shot 分类改进了性能。
Sep, 2021
本文探讨了在大型弱标记图像集上训练卷积网络以提升视觉特征表达的潜力,并证明了在 1 亿张 Flickr 图片与样本说明上训练出来的特征在多种视觉问题中表现良好,还能够妥善地捕捉单词之间的相似性,并学习不同语言之间的对应关系。
Nov, 2015