基于自我中心大规模的微观对象理解数据集
通过研究人们在场景中关注的位置以及他们明确要求时选择的最显著对象之间的关系,我们建议吸引最多注视的对象是最显著的对象。我们提供了两个新的数据集,挑战现有的显着性模型,并提出了一种基于超像素的简单但强大的模型用于模型评估和比较。我们还提供了对一些标记场景数据集的评论和统计分析,这些数据集可用于评估显着对象检测模型。
Dec, 2014
通过在6个具有挑战性的数据集上定量和定性地比较40个最先进的模型(28个显著性目标检测、10个注视预测、1个目标性、1个基准)以进行显著目标检测和分割方法的基准测试,评价显示,这个领域在准确度和运行时间方面在过去几年里有了持续的快速进步。对于这个问题,我们发现显著目标检测专门设计的模型通常比相关领域中的模型表现更好,这为问题的精确定义提供了提示,并提出了一些可能的解决方案和未来的研究方向。
Jan, 2015
Open Images V4是一份有关图像分类、物体检测和视觉关系检测的数据集,包括了9.2M幅图片,其中包含了30.1M个图像级标签,15.4M个边界框,以及375k个涉及57类的视觉关系注释。
Nov, 2018
通过分析 15 多个模型在 4 个数据集上的表现,确定了基于深度学习的目标检测算法的平衡点,并发现分类错误是目标检测中错误的主要来源,而上下文对于检测小目标比大目标更重要。
Nov, 2019
使用可穿戴相机采集了 MECCANO 数据集,该数据集是首个研究工业场景下第一视角人物与物体交互作用的数据集,包含了四个任务,即动作识别、活动物体检测、活动物体识别和第一视角人物与物体交互作用检测。基准结果表明,MECCANO 数据集是研究工业情境下第一视角人物与物体交互作用的一项具有挑战性的基准测试。
Oct, 2020
介绍了Objectron数据集,旨在推进3D物体检测等新兴研究领域的发展,数据集中有九个类别的注释短视频,包含了1400万个注释图像和14819个注释视频。同时,提出了一种新的评估指标,3D Intersection over Union,证明了数据集在推进3D物体检测任务方面的有用性。提供了在该数据集上训练的基准模型。
Dec, 2020
通过利用环境背景和CAD数据,基于YOLOv4模型的两阶段检测流程,研究在Microsoft Hololens 2等增强现实设备中实现小物体检测的方法。
Jun, 2021
本研究提出了一种新的视角度量方法(Support Distance Error)来评估3D目标检测,基于该方法提出了StarPoly模型来准确描述目标的几何形状,从而提高目标检测的质量和安全性。
Dec, 2021
本研究解决了自我中心视频中由于快速相机运动、频繁遮挡和有限可见性所带来的3D场景理解挑战。提出了一种新的方法,通过结合场景几何、3D物体中心跟踪和实例分割,实现了动态自我中心场景的稳健分析。实验结果表明,该方法在跟踪和分割一致性指标上结合空间和时间线索显著优于现有的二维方法,尤其是提升了关联准确率和IDF1分数。
Aug, 2024