本文提出了一种通过点击目标物体的中心点来标注边界框的标注方法,结合现有的弱监督目标定位技术,可在所有训练图像上联合定位目标边界框,与传统手动标注方法类似的定位出高质量目标检测器,标注时间可减少 9-18 倍。
Apr, 2017
利用语音交互技术优化深度学习目标检测中对数据集的标注工作,通过使用语音代替鼠标进行对象类别和边界框的注释,有效提高标注效率,实验表明该方法优于传统标注框架。
May, 2019
本文提出了一种使用基于关键点估计网络的下向方法进行目标检测的算法,我们只需检测每个对象的最高、最左、最下、最右以及中心五个极点,并且如果这些点在几何上对齐,则将其分组为一个边界框,从而避免了区域分类或隐式特征学习,此算法表现出了与基于区域的检测算法相当的性能。
Jan, 2019
本论文介绍了一种使用极值点(即每个对象的最上面、最左边、最下面和最右边的点)进行实例分割学习的新方法。通过将极值点视为真实实例掩码的一部分并将其传播以识别潜在的前景和背景点,然后将其用于训练伪标签生成器,再利用生成器提供的伪标签进行最终模型的监督学习,我们的方法在三个公共基准上明显优于现有的基于边界框监督方法,进一步缩小与完全监督对照组之间的差距。特别是在目标对象分隔成多个部分的情况下,我们的模型生成高质量的掩码,而之前的基于边界框监督方法经常失败。
May, 2024
我们提出了一种即时视频标注的方法来提高标注效率,通过在实时视频中保持光标在对象上的持续单点注释,减少传统标注方法中的暂停和重复导航需求,从而实现了 3.2 倍的标注速度提升,并在开发的数据集上在等价的标注预算下取得了 6.51+-0.98 AP@50 的均值改善。
Apr, 2024
通过提出一种仅需要验证自动产生的边界框的方案来训练目标类检测器,这种方案可以通过反复训练检测器、在训练图像中重新定位对象并进行人类验证,从而使用验证信号来改善重新训练和减少重新定位的搜索空间。实验表明,采用人类验证更新检测器和减少搜索空间可以迅速产生高质量的边界框注释,而且与完全监督的检测器相比,可以在不绘制任何边界框的情况下提供几乎同样好的性能。
Feb, 2016
该研究提出了一种名为 Click-Pose 的端到端神经交互式关键点检测框架,相比于仅使用手动标注,能够大大降低 2D 关键点注释的标注成本,并探索用户反馈如何与神经关键点检测器合作,在交互方式下更快、更有效地修正预测的关键点。
Aug, 2023
本文提出了一种快速边界框注释的方法,该方法分为两个阶段:第一步手动标注数据集的一部分,第二步采用第一阶段注释的模型对其余样本进行注释。我们还介绍了一个新的完全标记的室内场景物体检测数据集,使用几种最先进的模型对其训练,并在速度和准确性方面进行了比较。
Jul, 2018
本文提出了一种在训练期间可以节省标注成本的方法,该方法通过点级别标注和目标可能性将对象指向强监督引入到 CNN 模型的训练损失函数中,可以明显提高模型的准确性。
Jun, 2015
本文提出了一种训练目标检测器的框架,该框架可以处理含有混合标签噪声和边界框噪声的嘈杂标注数据,并通过交替噪声校正和模型训练来共同优化目标标签、边界框坐标和模型参数,其方法通过执行两个步骤来分离标签噪声和边界框噪声,并在 PASCAL VOC 和 MS-COCO 数据集上获得了良好的实验效果。
Mar, 2020