- 利用新颖的梯度一致性模型进行多视角视差估计
这篇论文提出了使用梯度一致性信息来评估线性化的有效性,并将此信息用于确定作为解析梯度一致性模型的一部分应用于数据项的权重,以取代基于预定日程的数据库学术自调度,该模型通过分析得出的梯度一致性模型用于于目标视图的空间梯度和源视图的空间梯度之间 - 深入研究普通公司立体匹配
通过几个公开数据集上的广泛实验,我们提出的方法在 KITTI 2015 数据集的前景像素立体匹配中排名第一,在 Scene Flow 数据集中排名第三,验证了我们方法的有效性。
- 基于扩散的光场合成
通过仅使用单个 RGB 图像作为输入,LFdiff 采用基于扩散的生成框架针对光场合成进行设计,利用单目深度估计网络估计视差并结合新颖的条件方案和面向光场数据的噪声估计网络。实验结果表明,LFdiff 在综合光场合成方面具有卓越表现,并且生 - S3Net:用于卫星极线影像的单分支语义立体网络的立体匹配和语义分割创新
提出了一种名为 Single-branch Semantic Stereo Network(S3Net)的解决方案,通过自我融合和互相融合模块创新性地将语义分割和立体匹配相结合,从而更准确地理解语义信息和视差估计。在 US3D 数据集上的比 - 提高上采样稳定性 —— 关于空间上下文的重要性
通过使用卷积上采样操作并增加内核大小而保持编码器不变,我们首次探索了上采样过程中上下文的重要性,并发现增大内核大小可以提高像素预测任务的稳定性,尤其在图像修复或图像分割任务中。
- 结构光系统中用于动态场景的在线自适应视差估计
深度神经网络在单目结构光系统中的密集视差估计方面取得了显著进展,但在未知环境中应用时性能显著下降。为了解决这个问题,提出了自监督在线适应作为解决方案来弥合这种性能差距。本文提出了一种基于长序列输入的无监督损失函数,确保更好的梯度方向和更快的 - 双像素视差提取的连续成本聚合
该论文提出了在半全局匹配框架内使用连续代价汇聚方案来从 Dual-Pixel 图像中提供精确的连续视差,并通过在图像路径上聚合二次系数来实现聚合步骤,具有封闭形式的像素最小化,同时保持总代价的二次形式。同时,连续形式允许在不同尺度上进行强大 - CVPRVisiTherS: 可见 - 热红外人体轮廓立体视差估计
本文介绍了一种针对人像轮廓视觉 - 红外立体视觉中的差距估计的新方法,该方法使用了高分辨率卷积神经网络来提取特征并进行配准,实验结果表明这种方法比传统方法要有效。
- MM感知导向的立体图像超分辨率
该研究通过开发 StereoSRQA 模型,提出了第一种感知定向的立体图像超分辨率方法,并采用 StereoSRQA 数据库为 StereoSR 模型提供准确的指导,从而提高了立体图像的感知质量和位移估计的可靠性。
- 交互增强的立体图像超分辨率与视差估计的反馈网络
该研究提出了一种基于双递归子网络的立体图像超分辨率和视差估计反馈网络 (SSRDE-FNet),在低分辨率空间利用跨视图信息,通过高分辨率特征聚合产生更精细的 SR 结果,并提出了 HR Disparity Information Feed - CVPR半监督深度特征重建视差估计
通过联合使用带标签的合成数据和无标签的实际数据的有监督训练和自监督训练,提出了半监督的流水线,成功地将 DispNet 适应到实际环境中,并分析了深层特征重建对视差估计的影响。
- CVPRSMD-Nets:立体混合密度网络
该篇论文提出了一种基于双峰混合密度的立体深度估计网络 SMD-Net,在处理立体边界和高分辨率输出方面表现出很高的精度,并将立体深度估计转化为在图像域中的连续问题,从而模型可以在任意空间精度上查询视差,经实验证明,在 8Mpx 分辨率的箱子 - 基于 Wassertein 距离的立体视差估计
本研究引入了一种新的神经网络架构和基于 Wasserstein 距离的损失函数,能够输出任意深度值以及有效地解决 3D 对象检测中物体边界的模糊问题,实现了自动驾驶中 3D 对象检测的最新技术成果。
- FADNet:一种用于视差估计的快速准确网络
FADNet 是一种高效准确的深度学习网络用于计算机视觉中的视差估计,采用 2D 基础相关层与残差结构来提高预测精度, 并通过多尺度预测技术实现多尺度权重调度来提高准确性,无需 3D 模型耗费更多的计算资源。
- ICCVAutoDispNet: 借助 AutoML 提高视差估计
本文章研究使用 AutoML 方法和神经网络搜索技术来优化大规模 U-Net 等编码器 - 解码器架构,以达到比手动优化的基准更高和最先进的视差估计表现。
- EdgeStereo:用于立体匹配和边缘检测的有效多任务学习网络
深度立体匹配网络结合边缘检测网络,构成一种多任务学习网络,其中边缘线索提供了出色的线索,以实现细节区域的视差估计精度的提高,并获得 state-of-the-art 的表现。
- DispSegNet: 借助语义实现从立体影像端到端的视差估计学习
本文提出了一种用于改善深度估计的 CNN 体系结构,该体系结合语义分割任务。所提出的模型是使用无监督方法进行训练的,并采用双目摄像系统的图像对。实验表明,使用语义分割的嵌入可以提高深度估计的性能
- ECCVSegStereo:利用语义信息进行视差估计
本研究提出了一种利用语义线索修正传统视差计算算法预测的方法,通过语义特征嵌入和语义 loss 正则化优化来提高学习视差的效果,并在 SegStereo 模型中整合了自分割中获取的语义特征和引入语义 softmax loss 以提高视差图像预 - EdgeStereo:一种上下文整合残差金字塔网络,用于立体匹配
本文提出了一种多任务网络 EdgeStereo,由一个背景视差网络和一个边缘子网络组成,通过设计上下文金字塔来编码多尺度上下文信息,并通过特征嵌入和基于边缘感知的光滑度损失正则化来融合边缘线索。经过实验证明,立体匹配和边缘检测可以相互帮助, - 高光谱光场立体匹配
本文介绍了如何使用全谱光场捕获(H-LF)系统提取场景深度。我们的方法分为两个部分,第一部分是新的跨光谱配对技术,第二部分是使用 H-LF 立体匹配。实验结果表明,我们的方法能够产生高质量的视差图,并且可以用于产生完整的光场,并合成不同光谱