采用机器学习对 LOCO 数据集进行关键评估
本文提出了一项名为 Locount 的新任务,即同时进行对象定位和计数,针对此任务,我们收集了一个大规模的对象定位和计数数据集,提供了一个新的评估协议,同时提供了一个被称为级联定位和计数网络的强基线,并在数据集上进行大量实验以证明其重要性和性能。
Mar, 2020
本研究旨在推进目标识别的最新进展,提出了一种数据集的形式,通过将目标识别的问题置于场景理解的更广泛背景下,聚集了包含常见物品的复杂日常场景的图像,并利用每个实例分割对物品进行标记以协助精确定位,该数据集包含 91 种 4 岁儿童容易识别的对象类型,有 328k 张图像和 250 万个标记实例。本文最终提供了一种基于可变形零件模型的边界框和分割检测结果的基线性能分析。
May, 2014
自动驾驶领域的物体检测评估常常忽略了物体的物理位置,本文提出了一种基于物理位置信息的新型评估标准(PLoc),并通过重新标注的数据集(ApolloScape-R)验证了该标准对不同物体检测模型的性能影响。实验结果表明,所有物体检测模型对于位于自动驾驶车道上的人的识别准确度低于人行道上的人。
Mar, 2024
本文介绍了一种基于概率的新型物体定位方法,通过在搜索区域中分配条件概率来实现物体边界框的精确推断,实验证明该方法可以显著提高目标检测性能,并且可以与现有的物体检测系统很容易地集成使用。
Nov, 2015
本文介绍了两种度量目标假设信息量的度量方法:localization tightness 和 localization stability,这些方法可以使基于分类的主动学习算法更加有效地用于减少标注数据量以达到目标物体检测性能,实验结果表明,使用这些度量方法可以将所需标注数据量减少高达 25%。
Jan, 2018
本文提出了一种处理 Open Images 数据集中目标多标签和标签分布不平衡问题的方法,使用 concurrent softmax 处理多标签问题并提出一种混合训练计划的软采样方法来解决标签分布不平衡问题,实验结果在公共测试集上达到了最佳水平。
May, 2020
我们提出了 ObjectLab 算法,用于检测目标检测标签中的各种错误,包括:漏掉的边界框、位置错误的边界框和错误的类别标签分配。ObjectLab 利用任何经过训练的目标检测模型对每个图像的标签质量进行评分,从而可以自动优先考虑进行标签的审查和修正。适当处理错误数据可训练出更好的目标检测模型的版本,而无需更改现有的建模代码。ObjectLab 在不同的目标检测数据集(包括 COCO)和不同的模型(包括 Detectron-X101 和 Faster-RCNN)上始终比其他标签质量评分方法更准确地检测到注释错误的存在。
Sep, 2023
通过引入基于 COCO 的 COCO-O 测试数据集,研究了 100 多种现代目标检测器的鲁棒性效果,并发现了各种架构设计、数据增强和预训练技术对鲁棒性的影响。
Jul, 2023
本研究基于特殊遮盖的 MS COCO 数据集,对目前最先进的 Faster R-CNN 和 YOLO 目标检测器的准确性进行评估和比较,以衡量它们的预测有多少依赖于编码在对象类别级别上的上下文信息。研究结果表明,当前检测器通常不会在类别级别上建立强的依赖关系,但是当它们这样做时,它们的方式往往相似,表明对象类别的上下文依赖性是一个独立的属性,这具有传递知识的相关性。
Sep, 2018
通过分析 15 多个模型在 4 个数据集上的表现,确定了基于深度学习的目标检测算法的平衡点,并发现分类错误是目标检测中错误的主要来源,而上下文对于检测小目标比大目标更重要。
Nov, 2019