Care3D:真实机器人护理环境下的主动三维物体检测数据集
该论文使用真实影像,聚焦日常室内环境下机器人视觉任务的模拟,构建新的公共数据集。该数据集可用于机器人视觉任务中的物体检测、主动视觉模拟和基于深度学习的强化学习下的下一步动作预测。在使用数据集的过程中,作者发现现有物体检测研究最大的问题是机器人视角对物体尺度,遮挡和方向的影响。
Feb, 2017
本文介绍了一份新的挑战性 A*3D 数据集,以满足自动驾驶研究任务在高度多样化的环境中的需求,并采用基于 RGB 图像和 LiDAR 数据的丰富多样的场景、时间和天气情况,其中包括重度遮挡和大量的夜间框架,共包含 39K 帧、7 个类别和 230K 个 3D 对象注释。对 A*3D 数据集进行广泛的 3D 对象检测基准评估,对高密度、白天 / 黑夜等各种属性给出了有趣的见解。
Sep, 2019
该研究介绍了 Google Scanned Objects,这是一个包含超过一千个三维扫描家庭物品的开源集合,用于促进交互式模拟、合成感知和机器人学习。
Apr, 2022
本论文提供了一个丰富的数据集,针对解决仓库拣选和放置任务时出现的挑战,集中探讨了基于 RGBD 的三维物体姿态估计的状态最新发展。该数据集包括成千上万张图片和相应物体的基准数据,在不同的位置和杂乱程度的条件下使用。以一个近期发展的基于 RGBD 的姿态估计算法为例,进行了评估,并应用各种修改和改进来提高检测的准确性,以提高仓库拾取和放置领域的性能。
Sep, 2015
使用照相机与软件进行拍摄与处理,采用 3D 扫描仪进行加速,生成真实物体的准确虚拟模型与网格模型,并在项目网站上提供所有生成的模型和图像。
Feb, 2024
介绍了一个名为 ETRI-Activity3D 的新数据集,关注老年人在机器人监视下的日常活动,同时提出一种名为 FSA-CNN 的新型网络用于处理多模态数据,并在实验证明了其在 NTU RGB+D 和 ETRI-Activity3D 上的优越性。
Mar, 2020
Robo360 是一个数据集,具有密集的视角覆盖,可实现高质量的 3D 神经表示学习,包含多样的物体和各种物理光学属性,促进各种物体操作和物理世界建模任务的研究。通过使用现有的动态 NeRF 验证我们数据集的有效性,并评估其在学习多视角策略方面的潜力。我们希望 Robo360 能在理解 3D 物理世界和机器人控制交叉领域开辟新的研究方向。
Dec, 2023
提出了一个大规模的全景三维多目标检测和跟踪数据集(H3D),包括 160 个高度互动的交通场景,总共 27,721 帧并提供对应的数据标注;作者还提出了标注方法来加速标注过程并为全方位三维多目标检测和跟踪算法创建基准测试。最终,讨论了算法以及未来研究中可能出现的错误来源。
Mar, 2019
这篇论文介绍了一种用于挖掘行业中 3D 目标检测的合成数据集,该数据集通过 ROS 接口实现自动注释,通过高度和高度变化增强来提高准确性和可靠性。
Dec, 2023
通过建立综合医疗设施的超逼真多模态合成数据集,揭示了下一代自主医疗机器人在感知和理解复杂的环境方面的能力,并提供了一个在线评估基准,旨在进一步推动对医疗设施场景理解的研究。
Aug, 2023