- ECCVGAN 反演实现的单目 3D 物体重建
通过利用预先训练的 3D GAN 生成先验来改善重建结果,本文提出了一种名为 MeshInversion 的新型框架,它在单视角观察下通过搜索最相似目标网格的 3D GAN 的潜在空间来实现重建,从而在 3D 空间中直接应用正则化,提供了未 - CVPR从单目彩色图像中稳定驱动的接触重建
通过使用物理引擎对接触状态进行模拟,并直接从单目图像中重建接触特征,提出了一种手 - 物体接触的精确重建框架。此框架可以被适应于更个性化的手部和更多样化的物体形状,并通过额外的物理特性交互数据集验证准确性和稳定性。
- 单目 3D 物体检测的渐进式坐标变换
本文提出一种名为 “Progressive Coordinate Transforms”(PCT)的新型简单的轻量级方法来促进学习坐标表示,通过引入具有自信损失的定位增强机制来逐步改进定位预测,并利用语义图像表示来弥补局部提案的使用,得到了 - 通过概率逐像素部件分割学习消岐强相关手部
本论文提出 DIGIT 方法,通过将每个像素的语义部分分割和视觉特征融合形成卷积层,实现从单目图像中估算两只相互交互手的三维姿势,试验表明该方法在 InterHand2.6M 数据集上取得了最新的最佳性能。
- ICCV利用自监督学习和光线跟踪实现高保真度单目人脸重建与富含反射的技术
本文提出了一种基于 CNN 编码器和可微分光线追踪器的面部重建方法,使得在不同照明场景下,可以得到更高质量更真实的面部形状、外观和照明,从而实现实用的应用,如重新照明和自动去除自阴影。
- CVPR基于模型的自监督学习实现的 3D 手部重建
本文提出了一种利用自我监督的三维手部重建网络,通过利用易于提取的二维关键点从输入图像中获取几何线索,并通过一套新颖的损失函数推理出网络输出,以进行精确的手部重建。与使用手动标注数据训练的方法相比,我们的方法减少了对手动标注的依赖,并展示了在 - CVPR通过单张图片捕捉 3D 手、面部和身体表达
本研究提出了通过单目图像计算实现人体姿态、手部姿态和面部表情三维模型的方法,主要使用了一个新的、一致的、包含完全表达手和面部表情的人体模型 SMPL-X,可以对受控图像和自然环境图片进行三维模型匹配。
- CVPR使用混合密度网络生成多个假设的三维人体姿态估计
本文提出了一种基于多模式混合密度网络的方法,可以从 2D 关节生成多个可行的 3D 人体姿势假设。实验表明,我们的方法具有先进的性能,并且可以用于针对 2D-3D 反问题的多解决方案。
- CVPR从视频中学习人脸模型
利用多帧视频自我监督训练深度网络,学习面部身份模型并同时重建 3D 面部,采用新的多帧一致性损失函数使得 consistent shape 和 appearance 尽量减小深度不确定性,从而实现单目和多帧重建。
- 自我改进的视觉里程计
我们提出了一种自我监督学习框架,使用未标记的单眼视频序列生成大规模监督,用于训练视觉里程计前端,并使用输出来创建自我监督数据集以重新训练前端。
- 基于隐变量 2.5D 热力图回归的手部姿态估计
本文提出一种使用 2.5D 姿势表示的新方法来从单目图像中估计 3D 手部姿态,通过使用深度图和热力图分布来训练卷积神经网络 (CNN) 模型,该模型在多个数据集上实现了最先进 2D 和 3D 手部姿态的估计。
- 使用深度密集连接 MRF 的自动驾驶实例级分割
本文研究面向自动驾驶场景的单目图像像素级实例标注问题,使用卷积神经网络和密集连接马尔可夫随机场模型结合的方式,提出了一种全局实例标注方法,并在 KITTI 基准数据集上取得了显著的性能提升。
- ICCV使用卷积神经网络实现单目物体实例分割和深度排序
本文针对从单目图像进行实例级别分割和深度排序的问题,利用卷积神经网络训练来直接预测实例级别分割,同时采用马尔科夫随机场来提供图像的连贯单个解释,旨在预测准确的实例级别分割和深度排序,并在 KITTI 基准测试中表现出很好的性能。
- CVPR基于深度卷积神经场的单张图像深度估计
本文提出了一种在单个图像中利用深度卷积神经网络和连续条件随机场进行深度估计的方法,通过结构化学习方案统一学习了连续 CRF 的一元和二元潜力,并通过实验证明了其在室内和户外场景数据集上优于现有深度估计方法。