带可见状态的边界框注释
本文提出了一种快速边界框注释的方法,该方法分为两个阶段:第一步手动标注数据集的一部分,第二步采用第一阶段注释的模型对其余样本进行注释。我们还介绍了一个新的完全标记的室内场景物体检测数据集,使用几种最先进的模型对其训练,并在速度和准确性方面进行了比较。
Jul, 2018
本论文提出了一种半自动化的包围盒标注方法,利用跟踪 - 检测方法和时间信息,采用现成的目标检测器训练,利用多重假设追踪 (MHT) 来提高检测结果的可靠性,并使用人工评估来进行迭代标注。通过实验显示,该方法可以将标注工作量减少 96%。
Jan, 2021
通过提出一种仅需要验证自动产生的边界框的方案来训练目标类检测器,这种方案可以通过反复训练检测器、在训练图像中重新定位对象并进行人类验证,从而使用验证信号来改善重新训练和减少重新定位的搜索空间。实验表明,采用人类验证更新检测器和减少搜索空间可以迅速产生高质量的边界框注释,而且与完全监督的检测器相比,可以在不绘制任何边界框的情况下提供几乎同样好的性能。
Feb, 2016
利用语音交互技术优化深度学习目标检测中对数据集的标注工作,通过使用语音代替鼠标进行对象类别和边界框的注释,有效提高标注效率,实验表明该方法优于传统标注框架。
May, 2019
我们提出了一种即时视频标注的方法来提高标注效率,通过在实时视频中保持光标在对象上的持续单点注释,减少传统标注方法中的暂停和重复导航需求,从而实现了 3.2 倍的标注速度提升,并在开发的数据集上在等价的标注预算下取得了 6.51+-0.98 AP@50 的均值改善。
Apr, 2024
本文提出了一种通过点击目标物体的中心点来标注边界框的标注方法,结合现有的弱监督目标定位技术,可在所有训练图像上联合定位目标边界框,与传统手动标注方法类似的定位出高质量目标检测器,标注时间可减少 9-18 倍。
Apr, 2017
本文介绍了一种新的标注方法,将人类监督与预训练的神经网络相结合,生成每个实例的三维点云分割,三维边界框和类别注释,以减少训练自动驾驶的 3D 物体检测器所需的任务复杂性和注释人员所需的任务切换量,实验结果表明,该方法相比传统方法减少了 30 倍人工标注时间。
Jul, 2018
本文介绍了智能标注对话框,其利用强化学习训练智能代理,自动为人工标记者选择一系列最小化时间的操作序列,通过验证生成的边界框和手动绘制边界框来对图像目标进行标注,在实验中取得了比手动标注和盒验证更快的效果。
Dec, 2017
我们提出了一种使用边界框注释的主动学习框架,用于细胞分割,大大降低了数据注释成本。通过将 YOLOv8 检测器与 Segment Anything Model (SAM) 相结合,我们生成了一个箱子监督学习方法(称为 YOLO-SAM),有效降低了数据注释的复杂性。此外,它还集成到一个主动学习框架中,使用 MC DropBlock 方法以较少的框注释样本来训练分割模型。广泛的实验证明,与遮罩监督深度学习方法相比,我们的模型节省了超过 90%的数据注释时间。
May, 2024
提出了一种新的框架,利用选择和细化策略自动改进跟踪算法生成的初始注释,包括一个时间评估网络和一个视觉几何改进网络,它们共同提供了一个原则性的方法来确保自动视频注释的质量,并且在大规模跟踪基准测试中表现出高度准确性。
Aug, 2021