3D 整体匿名化
我们提出使用多视角三维数据来匿名化多角度的手术室录像,借助 RGB 和深度图像,将多个摄像头的图像融合成场景的三维点云表示,利用参数化人体网格模型对检测到的三维人体关键点和融合的三维点云进行回归以定位面部,并在每个摄像头视角中渲染出人体网格模型,替换每个个体的面部。我们的方法在定位面部方面比现有方法表现更好,DisguisOR 通过对每个摄像头视角进行几何一致性的匿名化,实现了更真实、对下游任务的影响更小的匿名化,该方法旨在解决手术室中的障碍和拥挤对现有匿名化方法的不足,并为 Surgical Data Science 领域的后续研究提供潜在的便利。
Jul, 2023
我们提出了一种基于实时 RGB 的管道来实现物体检测和六自由度姿态估计。我们的创新性三维方向估计基于域随机化训练的三维模型的模拟视图,采用了变体的降噪自编码器。我们称之为增强自编码器相较于现有方法具有多个优点:它不需要真实标注的训练数据,适用于各种测试传感器,固有的处理物体和视角对称性。我们提出了一种隐式表征物体方向的方法,定义了潜在空间内的样本,而不是学习从输入图像到对象姿态的显式映射。我们的管道在 T-LESS 数据集的 RGB 和 RGB-D 领域均取得了最新成果。我们还在 LineMOD 数据集上进行评估,其中我们可以与其他合成训练方法竞争。当物体偏离图像中心时,通过纠正三维方向估计来进一步提高性能,并展示了扩展结果。
Feb, 2019
随着技术的不断提升,保护隐私信息变得越来越重要。本研究应用基于深度学习的全身匿名化框架 DeepPrivacy2,将人工身份生成应用于工业图像和视频数据,并与传统匿名化技术进行性能比较,考虑了身份生成质量、时间一致性以及姿势估计和动作识别的适用性。
May, 2024
本文提出了一种从野外拍摄的单目 RGB 视频学习高质量的隐式三维头像的方法,该方法通过参数化人脸模型驱动头像实现用户控制的面部表情和头部姿态,使用几何先验和 3DMM 的动态跟踪结合神经辐射场实现细粒度控制和光线真实感,并通过在 3DMM 几何上锚定的局部特征来预测,通过 3DMM 变形驱动,插值在 3D 空间中产生指定查询点的体积辐射。我们进一步展示了在 UV 空间使用卷积神经网络是关键的,可以整合空间上下文和产生代表性的局部特征。大量实验表明,与其他最先进的方法相比,我们能够重建高质量的头像,并具有更准确的表情依赖细节,更好地推广到训练之外的表情和数量上优秀的渲染效果。
Apr, 2023
提出了一种利用低成本深度相机从单视角和稀疏 RGB-D 传感器中捕获任意人物,并从未见过的视角生成逼真渲染的视图合成框架。该方法可重建面部表情,具有良好的鲁棒性和高质量的渲染效果,优于之前的视图合成方法。
Dec, 2021
提出了一种新颖的自监督框架,名为 Versatile Face Animator,它将面部动作捕捉与动作重新定位结合起来,从而实现了在任意 3D 角色上进行面部动画的理想效果,并具备潜在的成本效益和高效率的潜力。
Aug, 2023
提出使用一台 RGBD 相机综合已获取的图像数据生成自由视角视频的方法。该方法通过半参数模型结合深度神经网络的技术实现 4D 表演捕捉,从而为 AR / VR 内容生成提供高逼真度的渲染效果。
May, 2019
ORacle 是一种先进的视觉语言模型,用于整体手术室领域建模,通过多视图和时序能力,结合外部知识进行推理,适应以前未见过的外科手术场景,并展示了提高手术室领域建模可扩展性和可负担性的潜力。
Apr, 2024
本文介绍一种使用 RGB-D 自拍相机实现高保真、逼真、照片级的 3D 数字人头制作的完全自动化系统。该系统采用不同于传统的面部几何建模和反射合成技术,成功运用了两阶段帧选则过程和可微渲染器的 3DMM 拟合算法来从多视角 RGB-D 数据中恢复面部几何,进而实现人脸表面纹理的抠取与合成,从而制作出了高度真实细节的数字人头。
Oct, 2020
基于单目视频输入,本研究提出了一种名为 360° 体积肖像(3VP)头像的新方法,该方法用于重建 360° 全景真实头像,以模板为基础跟踪躯干、头部和面部表情,训练基于神经辐射场的神经体积表示,解决了外观变化模型中特别是嘴唇和牙齿区域的挑战,评估了实际采集的数据并与最先进的单目重建方法进行了比较。
Dec, 2023