使用完全可微分的力物理合理的姿态细化
通过深度学习的手法,优化手的姿态以实现与目标物体的期望接触,并使用一种可微分的接触模型来高效优化手的姿态,以实现期望的接触效果,从而显著提高接触匹配度和人类参与者对于抓取的喜好度。
Apr, 2021
介绍了 ContactPose 数据集,它是第一个把手对象接触配对其他数据模态的数据集,并用它来评估接触建模的各种数据表示、文献中的启发式方法和学习方法。
Jul, 2020
该研究提出了一种基于深度传感器和一种先进的 3D 手姿估计器的模型,使用模型自由的混合强化学习和模仿学习方法训练代理来实现虚拟环境中手 - 物体交互,通过引入物理约束,使得机器人能够完成更高效的手 - 物体操作。
Aug, 2020
本篇研究通过介绍一种新的中间变量来提高三维抓取合成的效率,以解决现有方法想要直接从物体映射到抓取姿势的非光滑和低效问题,并提出了一种基于接触区域的因子图形式来描述抓取姿态生成过程,并通过实验验证了优化方法的有效性。
Oct, 2022
本文提出了一种从单个 RGB 视频自动重建与对象的人交互的 3D 运动的方法,估计人和物体的 3D 姿势,接触位置,被人类肢体激活的力和扭矩,方法主要集中在联合估计运动和动作力,运用大规模的轨迹优化问题,并且从输入视频自动识别出人与物体或地面之间的接触位置和时间,于真实数据集上验证了方法并展示了它在新的互联网视频数据集中的性能。
Apr, 2019
通过利用可微化的物理和渲染技术,我们提出了 HandyPriors,一个统一且通用的流水线框架,用于在人 - 物互动场景中进行姿态估计,它通过渲染先验和物理先验来实现图像和分割掩码的对齐,减轻帧之间的穿透和相对滑动问题,并提供了两种手部和物体姿态估计的选择,基于优化的姿态估计可以获得更高的精度,而基于滤波的追踪则更快地使用可微的先验作为动力学和观测模型,我们展示了 HandyPriors 在姿态估计任务中获得了可比较或更好的结果,并且可以根据不同 iable 的物理模块预测接触信息,同时我们还展示了我们的方法在机器人手操纵和野外人 - 物姿态估计等感知任务中的泛化能力。
Nov, 2023
本文提出了一种新的方法,通过建模手部与物体之间的互动模式,达到更准确、更真实的物体重建,包括手部接触物体的部分。该方法由两部分组成:显式接触预测和隐式形状重建,并在挑战性数据集上表现出比当前艺术水平更出色的性能。
May, 2023
该论文介绍了一种基于深度信息的机器人手臂感知与图像识别框架,包括自适应手指检测、点云数据处理、全局位姿估计、轨迹规划与性能分析等组件,该框架可以实现对高度遮挡物体进行精准的位姿估计与反应迅速的操作控制。
Mar, 2020
提出了一种基于多视角视野的实时视觉系统,可以从单个 RGB-D 视角提出三维物体姿态建议,并且根据多个视角的姿态估计和非参数占用信息积累这些姿态估计,从而对接触的多个已知对象进行一致的、不相交的姿态估计。应用于实时机器人应用程序中,只使用机载 RGB-D 视觉,机械臂可以精确而有序地拆卸复杂的物体堆放,展示了其准确性和鲁棒性。
Apr, 2020