本研究提出了一种使用 CRFs 优化和多头注意机制的深度估计方法,其中神经窗口 FC-CRFs 模块作为解码器,视觉变换器作为编码器,结果表明相对于以前的方法,在 KITTI 和 NYUv2 数据集上均能显著提高性能,并且该方法可直接应用于全景图像。
Mar, 2022
360 深度估计是重建三维场景的关键技术之一。本文提出了一种名为 Elite360D 的新框架,通过使用 ERP 图像和 ICOSAP 点集,结合局部和全局特征,有效地估计 360 深度,其在多个基准数据集上优于之前的方法。
Mar, 2024
提出一种新的神经网络架构,用于解决 360° 图像中的球面视差问题,并通过学习可移位滤波器构建代价体积以缓解失真问题,实验结果表明其对现有算法具有较好的鲁棒性和准确性。
Nov, 2019
本文提出了一种新颖的框架 HRDFuse,该框架利用卷积神经网络和 transformers 协同学习从 ERP 和 TP 中捕获整体和区域上下文信息,以预测深度细节并生成最终的深度图,实验表明我们的方法预测出更平滑和精确的深度结果,并比现有技术实现更好的效果。
Mar, 2023
使用教师 - 学生模型融合环形和球形表达的方法,开发了一种新的球形卷积核计算方法和分割特征融合(SFF)方法来提取特征,并使用教师 - 学生模型学习深度图像的潜在特征,从而实现对环形图像深度图的估计。在实验中,该方法在 360 度单眼深度估计基准数据集上进行了测试,并且在大多数评估指标上优于现有方法。
May, 2024
本论文提出了一种新颖的自监督学习方法来从 360 度视频中预测全向深度和相机运动,通过转换图像类型,提出全视角光度一致性约束和相机姿态一致性误差等方法来提高视频运行速度,同时实现了比等面投影更快速的深度预测和相机运动估计。
Nov, 2018
提出一种基于切线图像的高分辨率 360 度图像单目深度估计方法,通过将输入的 360 度图像投影到切线平面上得到透视视图,以此来支持最新的和最准确的单目深度估计器,采用可变形多尺度对齐和梯度域混合来重新组合单个深度估计,产生具有高分辨率和高细节的稠密 360 度景深图。
Nov, 2021
本篇论文提出了一种名为 OmniFusion 的 360 单目深度估计流程,通过将 360 图像转换为切线图像并采用 CNN 进行分段预测,最后合并分段结果以处理球形畸变问题,并通过几何感知特征融合机制、自注意力变换架构和迭代深度细化机制处理分段预测不一致问题,成功的在多个 360 单目深度估计基准数据集上取得了最先进的性能。
本文提出了一个 360 度深度估计的方法,结合自监督学习和有监督学习,并使用全局信息编码的视觉 transformer 实现全局非局部融合块,提高了深度估计的准确性和整体效果。在多个基准测试中,我们的方法在之前的研究工作中取得了显著的改进和最先进的表现。
Sep, 2021
提出了 SphereSR 框架,可通过一个特征提取模块和一个球形本地隐式图像函数来灵活地从 LR 360 度图像生成高分辨率图像,从而实现在任意投影类型下的超分辨率重建,并在多种基准数据集上证明其显著优于现有的方法。
Dec, 2021