- CVPR基于 RGB-D 图像的 6 自由度物体位姿估计的基于残差的密集点对点网络
利用单个 RGB-D 图像,我们引入了一种新颖的方法来计算物体的 6DoF 姿态。通过密集对应,我们回归每个可见像素的物体坐标,从而有效降低输出空间并取得出色的性能,在 6D 姿态估计中胜过大多数先前的方法,特别是在遮挡场景中具有显著改进的 - 建立多视角冠状动脉造影中的密集对应:从点对点到曲线对曲线的查询匹配
通过设计数据模拟流程,将密集对应问题转化为所有感兴趣点的查询匹配任务,并提高了拓扑意识,从而建立了多视角病灶密集对应的可行性。
- AAAI基于 NeRF 的人脸再现的密集对应关系学习
我们提出了一种新颖的框架,使用三面体平面作为基本 NeRF 表示,并将面的三个部分分解为:规范三面体平面、身份形变和运动。在运动控制方面,我们的主要贡献是提出了一个平面字典(PlaneDict)模块,它将运动条件高效地映射到可学习的正交平面 - BLiSS: 自举线性形状空间
BLiSS 是一种解决建立形状空间和密集对应的方法,通过使用非线性变形模型捕捉细节,实现对形状空间的逐步丰富。
- CVPR可学习配准实现的即时多视角头部捕捉
TEMPEH 是一个基于多视图图像拍摄的 3D 头部模型重建方法,它采用体积特征表示法,联合训练 3D 头部批量数据集的非刚性注册,从而实现了直接从校准的多视图图像中推断出密集对应的 3D 头部模型,而无需进行扫描,该方法可以高效地捕获包含 - DiffMatch: 密集匹配的扩散模型
提出了 DiffMatch 框架,使用基于扩散的条件去噪模型显式地建模了两个术语:数据项和先验项,以解决匹配模糊性问题,实验证明其优于现有技术。
- CVPR自监督视频分割的统一掩模嵌入和对应关系学习
通过开发一个统一的框架,其中同时建模跨帧密集对应以进行本地区分特征学习并嵌入对象级上下文进行目标掩码解码,从而使得能够直接从未标记的视频中学习执行基于掩码的连续分割,而不是依赖于基于像素的关联的廉价 “复制” 标签的非直接方法。
- ECCVParticleSfM:利用稠密点轨迹定位野外运动相机
提出了一种基于密集间接结构运动方法的鲁棒性摄像机姿态估计方法,利用密集对应初始化并优化长程视频对应关系作为密集点轨迹并用于学习运动分割的鲁棒估计;实验表明我们的系统相对于现有最先进方法在 MPI Sintel 数据集上产生了更准确的摄像机轨 - CVPRBodyMap: 全身密集对应图学习
本文介绍了 BodyMap,一种基于 Vision Transformers 的新框架,用于在野外图像与 3D 模板之间获取高清全身和连续密集的对应关系,并展示了其在多层密集布料通信,神经渲染和外观交换等方面的应用。
- ICCV深度匹配先验:用于密集对应的测试时优化
本文提出一种称为 Deep Matching Prior(DMP)的框架,使用优化方法为图像对特定定制网络,来实现密集对应的学习,并在几个基准测试中展现了与最新的基于学习的方法相媲美的性能。
- CVPRMonoRUn: 单目三维物体检测通过重建和不确定性传播
提出了一种名为 MonoRUn 的检测框架,该框架通过自我监督学习,仅使用简单的三维边界框注释学习密集的对应关系和几何学,并利用不确定性感知的区域重建网络来回归像素相关的三维目标坐标,并利用预测的不确定性通过整个下游模块,实现对象姿态的估计 - 深度内隐模板用于三维形状表示
本文提出了一种基于 Deep Implicit Templates 的新型三维形状表示方法,支持在深度隐式表示中进行显式的对应关系推理,并使用 Spatial Warping LSTM 解决推理过程中的空间变换问题,同时采用特殊的训练损失函 - 非刚性拼图
提出了一种非刚性多部位形状匹配算法,可同时解决参考模型的分割以及与多部位之间的稠密对应关系,实验证明其在处理非常具有挑战性的匹配场景方面有效。
- 学习隐式函数以实现拓扑变化的稠密三维形状对应
本文旨在以无监督的方式学习拓扑变异物体的密集三维形状对应关系,引入了一种新的隐式函数,该函数为每个三维点生成一个部分嵌入向量,实现对点的密集对应,通过面向部分的逆函数将部分嵌入向量映射到对应的三维点上,结合几个有效的损失函数进行联合学习。在 - 一种用于非刚性形状匹配的双重迭代细化方法
本研究提出了一种基于双重迭代精化(DIR)的解决方案,通过优雅的方法将空间和频谱数据融合起来,从当前迭代中提取更多准确的信息用于下一次迭代,有效地将双重信息结合在一起,从而提供了一种高效而稳健的密集对应解决方案。
- 联合任务自监督学习用于时间对应
本文提出了一种利用自我监督方式从视频中学习可靠密集对应关系的方法,通过跟踪大规模图像区域和建立连续视频帧之间的像素级细粒度关联来实现。该方法利用共享的帧内亲和矩阵来建模两个任务之间的协同作用,在区域级别和像素级别同时建模视频帧之间的转换,从 - ICCV深入探索混合注释技术在野外三维人体恢复中的应用
本文提出一种全面的方法,研究了不同类型标注成本和效果的权衡,特别是探究了在缺乏匹配的实境 3D 标注数据情况下,利用 Dense Correspondence(密集对应)实现在单一图像中实现 3D 人类重构,发现与传统 2D 标注相比,3D - ICCV几何循环一致性下的规范表面映射
本文提出了一种不能手动标注分类的画面的自动标注方法,只需要利用前景蒙版,结合几何周期性损失函数,实现了 3D 模型上的像素点映射及 3D 投影,并且可以推断两个图像之间的密集对应关系。
- ICCV来自不同原始扫描数据的 3D 人脸建模
本文提出了一种创新框架来实现从不同 3D 扫描数据库中共同学习非线性面模型,并建立其扫描之间的稠密点对点对应关系,通过使用 PointNet 架构将输入扫描作为无组织的点云进行转换,从而恢复其 3D 面形,并采用弱监督学习方法来提高方法的稠 - ICCV级联残差学习:一种用于立体匹配的两阶段卷积神经网络
本文提出了一种级联卷积神经网络,它深度学习处理立体成像时产生的不适定区域难点,通过残差学习技术实现了高精度的视差图生成,达到了极佳的匹配效果。