DGC-Net:密集几何对应网络
本文针对在图像检索中几何对应验证,提出了以像素级密集配对检索数据库图像并以全局相似度度量和匹配像素计算的几何一致性度量为基础进行短序列重排的新模型,并通过实验证明了该模型具有竞争力。此外,将该方法应用于长期视觉本地化问题,并在跨数据集上进行了验证。
Apr, 2019
提出了一种增强型概率密集对应网络 (PDC-Net+), 可以同时估计准确的密集对应关系和可靠的置信度分布,通过联合学习流估计和不确定性来预测密集匹配度,并且在自监督训练环境下具有更加稳健和可泛化的不确定性预测策略,对几何匹配和光流数据集取得了最先进的结果,并证明了概率置信度估计在姿态估计、3D 重建、图像定位和图像检索方面的有用性。
Sep, 2021
本文提出了一种深度学习框架,用于准确的视觉对应,并证明了其在几何和语义匹配中的有效性,提出了一种卷积空间变换器来模仿传统特征(如 SIFT)中的补丁归一化,广泛的 KITTI,PASCAL 和 CUB-2011 数据集的实验表明,与使用手工构建或学习特征的先前作品相比,我们的特征具有显着优势。
Jun, 2016
我们提出了一种通用的网络架构 GLU-Net,它可以直接应用于所有密集对应的问题,并通过结合全局和局部相关层来同时实现高精度和对大位移的鲁棒性。当使用相同的网络和权重时,此 GLU-Net 在几何和语义匹配以及光流方面都达到了最先进的性能。
Dec, 2019
本研究利用深度学习中的 DenseNet 架构,纵向连接对求解密集光流估计问题具有隐式深度监督的特点,扩展当前 DenseNet 到全卷积网络,通过无监督学习的方式实现了运动估计。实验结果在三个标准基准测试中证明,相较于其他广泛采用的 CNN 架构,DenseNet 更适合进行光流估计。
Jul, 2017
研究使用二进制前景掩码并经过合成几何变形的图像来训练卷积神经网络(CNN),以解决语义对应问题,提出了一种新的 CNN 体系结构(称为 SFNet),其实现了这一想法,并展示了在标准基准测试中明显优于现有技术的实验结果。
Nov, 2019
本文提出利用跨实例视觉一致性作为监督信息,通过建立一个包含 4 个环(4-cycle)的人工数据集提高深度学习在实现物体实例间的稠密视觉对应中的表现,并在测试阶段显示出优于先前相关任务的最新成果。
Apr, 2016
该论文介绍了一种新方法,它将深度网络的能力与几何和概率定位算法的计算效率相结合,通过矩阵李群方法导出了一个新的损失函数用于学习 SE (3) 修正,用 DPC-Net 预测从地面实况训练数据中学习得到的模型纠正特定的估计器、传感器和环境误差,并展示了如何减轻镜头失真参数不良校准的影响。
Sep, 2017
通过使用二进制前景蒙版和几何变形训练卷积神经网络(CNN)实现语义对应的密集流场,提出了一种新的 CNN 框架 SFNet,并在各项基准测试中表现出比现有方案更好的泛化性能。
Apr, 2019
本文提出了一种使用神经网络在高度自由的 RGB 图像中计算面部对应关系的最简单有效的方法,使用渲染可变姿势、表情、照明和遮挡的多样化三维面部模型生成大量人工数据集,结合真实照片培训表现在精度和速度上优于现有方法,并可以成功地处理极端姿势变化、遮挡和光照条件。
Sep, 2017