CIMI4D:人 - 场景交互下的大规模多模态攀爬运动数据集
本文介绍了一个新的数据集 MI-Motion,用来帮助研究多人运动预测,并提供基准测试来评估预测模型的性能,同时还介绍了一种新的基线方法 —— 图卷积神经网络和时间卷积神经网络。
Jun, 2023
HUMAN4D 是一种多模态体积数据集,提供了关于人类日常、物理和社交活动的各种姿势和动作的数据,同时提供多 RGBD、音频和音量数据。该数据集的介绍旨在推动计算机视觉和图形研究社区对空间和时间对齐的姿势、音量、mRGBD 和音频数据线索的联合研究,同时提供了人类姿势估计和三维压缩等方面的评估基线。
Oct, 2021
提出了人性化的 4D 场景捕捉(HSC4D),使用 IMUs 和 LiDAR 进行全空间和无地图的动态数字世界创建,并将它们用于长期捕捉。同时,关注人与环境之间的关系,以实现交互更为真实。提出了一个包含准确动态人体运动和位置的大型场景数据集,可用于多个下游任务。
Mar, 2022
该研究致力于提供一种通过廉价视频和自定义传感器记录的数据集来实现人体姿态跟踪和运动重建的方法,以支持远程的日常生活活动识别和运动学分析等问题。通过对 54 名受试者进行研究,验证了该数据集具有良好的临床应用价值和相关的不扰动采集协议,并可以提供人体关节角度的全面图像。
Mar, 2023
本文介绍了一组新的人体运动和视频数据集 MoVi,其中包括 60 名女性和 30 名男性表演 20 种预定义的日常动作和运动,以及一种自选运动。该数据集包含 9 小时的运动捕捉数据、17 小时的 4 个不同视角的视频数据和 6.6 小时的 IMU 数据,同时还描述了数据集的收集和后处理过程,并探讨了该数据集可促进的研究方向。
Mar, 2020
该论文介绍了当前机器人技术中数据驱动方法的应用以及面临的困难,提出了收集人 - 机器人大规模教学数据集的必要性和如何收集,同时介绍了 MIME 数据集和利用该数据集进行轨迹预测和多任务学习和其它相关研究的应用案例。
Oct, 2018
通过多模态人体运动数据集 RELI11D 及基于多模态融合策略的多模态基线 LEIR 的研究,展示了在高质量的人体运动数据集中整合多种模态可以提升人体姿势估计 (HPE) 性能的可行性。
Mar, 2024
通过 CORE4D 数据集,我们补充了协作对象重新排列领域的研究空白,这个数据集关注于多种对象几何结构,协作模式和 3D 场景的组合,我们使用迭代协作重新定位策略来扩充模型,共有 11K 协作序列,涵盖 3K 真实和虚拟对象形状。通过 CORE4D 提供的丰富动作模式,我们分别进行人 - 物运动预测和交互合成两个任务的实验,证明了我们的策略有效性并给现有的人 - 物交互生成方法提出了新的挑战。
Jun, 2024
提出 Human-M3,一个室外多模态多视角多人姿势数据库,包括多视角 RGB 视频和对应的点云;基于多模态数据输入,提出一种姿势准确的算法以生成地面真实标注,在室外多人场景中解决多视角 RGB 视频中存在的人体定位和匹配模糊问题,并生成可靠的地面真实标注;多种不同模态算法的评估表明该数据库具有挑战性且适用于未来研究;此外,还提出了一种基于多模态数据输入的 3D 人体姿势估计算法,展示了多模态数据输入在 3D 人体姿势估计中的优势。
Aug, 2023
本文描述了牛津多动态数据集,该数据集提供了许多复杂的多动态估计问题,包括挑战现有算法的复杂问题以及支持算法开发的简化问题。数据集包含来自静态和动态传感器的观测、多个移动体的不同 3D 运动的数据以及旋转和遮挡等多个问题的实验。它还提供了 110 分钟的数据包括立体和 RGB-D 摄像头图像、IMU 数据和 Vicon 地面真值轨迹,是多动态估计研究的一个有价值的资源。
Jan, 2019