- ICCV利用全局 $TGV$ 最小化算法实现离线表面重建
利用图形处理器对超大规模深度图像进行曲面重建,其基于可见性噪音过滤特性和 GPU 友好的总体广义变分最小化($TGV$)算法的离线部分的适应性。
- 基于 TOF-Stereo 融合的高分辨深度图
通过 TOF - 立体相机配对的数据融合方法,提出了一种通过种子生长算法和 Bayesian 模型相结合的方法,以更高的分辨率提供精确的深度图,用于导航和其他机器人应用。
- 端到端多模式视频时间定位
本文提出了一种基于多模态框架的文本指导视频时间地基方法,采用 RGB 图像、光流和深度图来提取视频的补充信息并通过 transformers 设计动态融合方案进行交互学习,在 Charades-STA 和 ActivityNet Capti - CVPR基于深度引导的图像重照的多模式分叉网络
这篇研究论文介绍了一种基于深度学习的多模态分支网络 (MBNet) 方法,利用深度地图对图像进行照明重新校准,并通过动态膨胀金字塔模块进行解码以有效地使用图像和深度特征。同时,提出了一种新的数据处理流水线以增加训练数据的多样性。在 VIDI - CVPR通过学习局部和全局形状先验层次来促进单视图 3D 重建的泛化
该文利用不同层次的位置先验信息从输入的深度图中提取详细的局部信息并进行组合,从而改进了新颖形状的泛化能力,具有更好的泛化性能。
- 深度学习时代的立体匹配置信度:定量评估
本文回顾了十多年来用于立体匹配置信度估计的算法和策略,并评估了现有的置信度估计方法,包括手工设计的和最新的基于学习的方法,在五个标准数据集上进行实验,并首次将一个最先进的深度立体网络与置信度测量技术配对进行比较,旨在提供该领域的全面概述,并 - 融合距离和立体数据用于高分辨率场景建模
本文采用最大后验概率方法将低分辨率深度数据与高分辨率立体数据相结合,通过层次求解一系列局部能量最小化问题来产生深度图。通过新的相关函数、自适应成本聚合步骤以及基于场景纹理和摄像机几何的自适应融合方法,提出了一种精度更高的种子生长方法,避免了 - BP-MVSNet: 多视角立体的置信传播层模型
本研究中提出了一种基于卷积神经网络的多视图立体(MVS)方法 BP-MVSNet,该方法使用一个可微条件随机场(CRF)层进行规范化,其能够在不同的尺度情况下得到高质量的深度地图。该方法经过 ablation study 和多组实验数据的测 - RGB-D 显著物体检测:综述
本文从各个角度综述了基于 RGB-D 的显著性目标检测模型,并详细回顾了相关基准数据集。此外,我们进行了综合评估,并探讨了未来研究的挑战和方向。
- 使用非参数抽样从视频中提取深度
使用非参数深度采样自动生成逼真的深度图以及通过局部运动线索和光流在视频中提取深度信息的技术,可实现单幅图像和视频的深度估计和 3D 可视化。
- CVPR引导式立体匹配
本论文提出了一种新的导向立体匹配方法,利用来自外部源的少量稀疏但可靠的深度测量来提高现有深度学习模型在处理新环境时的准确性和鲁棒性,并证明此方法适用于传统的立体匹配算法,并且即使只输入少量稀疏数据,对现有模型的性能也有显著提升。
- CVPR噪声感知的无监督深度 LiDAR-Stereo 融合
本文提出了 LidarStereoNet,是第一个可以在端到端的未经监督训练的融合网络,无需地面真实深度图。我们通过引入新颖的 “反馈循环” 来连接网络输入与输出,并进一步将分段平面模型结合到网络学习中,以进一步约束深度与底层 3D 几何形 - ICCVGated2Depth: 从受控图像获得实时密集激光雷达数据
通过利用带闸门相机的三幅图像,我们提出了一种成像框架,实现了与脉冲激光雷达测量相当的高精度深度图,有效地解决了现有扫描激光雷达系统的空间分辨率在大范围内降低的问题。
- 基于隐变量 2.5D 热力图回归的手部姿态估计
本文提出一种使用 2.5D 姿势表示的新方法来从单目图像中估计 3D 手部姿态,通过使用深度图和热力图分布来训练卷积神经网络 (CNN) 模型,该模型在多个数据集上实现了最先进 2D 和 3D 手部姿态的估计。
- CVPR像素、体素与视图:单视角 3D 物体形状预测的形状表达研究
本篇论文的目标是比较基于表面和基于体积的 3D 对象形状表示,以及基于观察者和基于对象的参照框架,在单视角 3D 形状预测中的表现。我们提出了一种新算法,可以从多个视角预测深度图,以单个深度或 RGB 图像为输入,并修改了网络和模型评估方式 - 利用色彩和深度的语义场景完整性:初步实验
本文研究以 RGB 彩色通道提升 SSCnet 在场景补全和语义标签方面的表现
- BigHand2.2M 基准测试:手势姿态数据集和最新技术分析
介绍了一种新的捕捉方法和跟踪系统,自动获取 21 个关节点的手部姿势数据,并通过新数据集和卷积神经网络对自我视角手势估计和交叉基准性能进行显著改进。
- CVPR基于共享潜空间的 GAN 和 VAE 结合在手势估计中的交叉网络
使用两个深度生成模型建模三维手势姿势和相应深度图像的统计关系,通过半监督方法从未标注的图像数据中进行学习,进而提高手势估计的泛化能力并取得比之前方法更好的结果。
- 使用卷积神经网络进行大规模连续手势识别
使用卷积神经网络从连续深度图序列中识别手势,主要方法包括使用数量运动进行个别手势分段、构建改进的深度运动图、通过卷积神经网络进行手势识别和在 ChaLearn LAP Challenge 竞赛中取得第三名的表现。
- CVPR自我矛盾用于学习立体视觉中的置信度测量
提出了一种基于立体图像和深度图像的新方法,用于产生训练数据,以用于学习置信度测量,以提高异常值去除和在立体视觉中的质量改进。该方法可在完全自动化方式下生成大量的训练数据,并且在 KITTI2012 数据集上得到了证明。