人作为场景探测器
本文提出了一种基于深度学习的图像编辑系统,支持拖放插入物体、后期光照和景深编辑。通过一种全自动的技术实现从单张低动态范围照片恢复包括几何、光照、漫反射和相机参数在内的全面的三维场景模型。研究结果表明,这个系统可以产生令人信服的结果,达到需要大量用户交互的技术相同的真实感水平。
Dec, 2019
利用全数据驱动的方法计算深度,通过对非刚性场景开发一种新数据集,其中包括大量的非刚性对象,特别是人,提出了一种损失函数进行深度预测,评估方法并表明该方法对自然场景具有更好的泛化能力。
Apr, 2019
本论文致力于解决如何从摄像机测量的数据中,使用视频目标分割技术学习估计物体深度的问题,为此我们首先引入了一个多样化的,可扩展的数据集,其次设计了一种新颖的深度学习网络,该网络仅使用分割掩模和不合格的摄像机运动即可估计物体深度,我们的方法可以通过机器人和车载摄像头,在不同领域进行定位目标和避开障碍物的实验。
Jul, 2020
通过利用人与场景的交互可有效提高单目视频的 3D 场景重建,同时优化人的姿态估计,本论文基于三种 HSI 约束条件,即深度排序、是否穿插目标、接触面,使用优化方法再形成一致、物理合理且功能性 3D 场景布局,并对其在 PROX 和 PiGraphs 数据集上进行定量定性评估。
Mar, 2022
本文提出了一种在动态视频场景中估算深度的算法,该算法结合了方面、运动、遮挡边界和场景几何上下文来学习和推断深度信息,并利用马尔可夫随机场框架和分块平面参数化相结合的方法预测新场景中的深度信息,验证结果在新数据集和在线数据集中均表现良好。
Oct, 2015
该研究通过利用场景结构、建立人体与场景之间的 “临近关系与对象排除法” 来更好地从单眼图像中估计人体姿势,并显示引入场景约束可以显著减少 3D 关节误差和顶点误差。
Aug, 2019
本文提出了 Total-Recon 方法,用于从长时间单目 RGBD 视频中重建变形场景并进行自由视点合成,通过场景运动层次分解,实现了快速高效的实现,并最终超越以往的方法。
Apr, 2023
本文提出一种基于像素几何和物体运动模型的运动预测方法,通过将图像分为运动一致的区域并利用深度构建最佳匹配的流场基础来减少从单个图像重建流场的不确定性,并在场景结构和物体运动建模方面取得了最新的结果,同时对预测深度图的评估显示出可靠的单眼深度估计性能。
Jul, 2023
本文提出了一种自监督学习框架,从视频中估算单个对象的运动和单眼深度,并将对象运动建模为六个自由度刚体变换;此外,该方法还使用实例分割掩码引入对象信息,并通过引入新的几何约束损失项消除运动预测的尺度歧义,实验结果表明,该框架在不需要外部注释的情况下处理数据并能够捕捉对象的运动,与自监督研究方法相比,在 3D 场景流预测方面有更好的表现,对动态区域的视差预测也有所贡献。
Dec, 2019