主动学习中的上下文感知图像标注
该研究提出了一种新的递归图像注释器(RIA)模型,将图像注释任务形成为序列生成问题,以便RIA可以根据图像内容本地预测正确的标记长度。 该模型在各种图像注释数据集上进行了评估,并显示其在任意长度图像标记任务上作为高质量基准的能力。 此外,实验结果表明,在训练阶段中标记的顺序对最终注释性能有很大影响。
Apr, 2016
本文研究了一种高效的策略收集多类别图像集的分类标签,使用自监督学习技术并将标注问题视为半监督学习问题,并提出了有效的标注指南,用此方案对ImageNet100图像集进行模拟实验,结果表明每张图像平均仅需0.35个标注,即可标注到80%的top-1准确率,相比之前的工作和手动注释,分别提高了2.7倍和6.7倍。
Apr, 2021
本研究针对减少标注工作的两种范式:主动学习和自学习,研究它们能否相互受益。在对象识别数据集(包括CIFAR10、CIFAR100和Tiny ImageNet)上的实验证明:对于低的标注预算,主动学习对自学习没有帮助。当标注预算很高时,主动学习和自学习的组合是有益的。
Aug, 2021
本文提出了一种新的视觉识别范式,名为ViRReq,通过将视觉识别分解成命名为请求的原子任务,并利用知识库和语言驱动识别,在功不完备的数据集上学习复杂的整体 - 部分层次结构,并且能够轻松地插入新的概念。
Jul, 2022
本文提出了一种名为ANNEAL的注释成本高效的主动学习方法,通过模拟为相似或不相似的最具信息量的图像对进行注释来增强训练集,从而准确地建模深度度量空间。
Jun, 2023
本文介绍了FOCAL(Ford-OLIVES协作主动学习)数据集,该数据集用于研究视频主动学习环境中标注成本的影响。通过提供真实的标注成本标签,以及引入一系列的符合性主动学习算法,本研究展示了这些方法如何更好地反映了视频标注的实际操作,并且证明了最佳的符合性主动学习方法比传统的主动学习方法更便宜113个小时。
Nov, 2023
通过人机交互系统的更直接参与,使用一种新的框架Video Annotator(VA)对视频分类数据集进行注释、管理和迭代,提高模型开发过程的效率、可用性和有效性,实现高质量模型的高效创建。
Feb, 2024
本研究解决了现有语义分割方法在标注效率上的不足,提出了一种新的主动学习策略——实体超像素标注(ESA),利用类无关的掩模提议网络和超像素分组来捕捉局部结构线索。研究表明,该方法在仅需40次点击的情况下,实现了1.71%的性能提升,点击成本降低了98%,显著超越了传统像素基方法。
Aug, 2024