- 虚拟现实中全景图像高品质导航和缩放学习
OmniVR 是一个设计用于提升虚拟现实导航过程中视觉清晰度的新系统,通过学习算法和使用者输入优化全景图像,有效解决模糊效果对用户体验的影响,提高用户的参与度和沉浸感。
- 使用全景视图和三元损失函数的层次定位
本研究旨在使用三元组卷积神经网络解决移动机器人定位问题,并测试其对光照条件变化的鲁棒性。我们使用在动态条件下捕获的真实室内环境的全景图像。文章提出了两种方法来通过三元组神经网络解决定位问题。第一种是分层定位,它包括两个阶段:粗定位和细定位。 - OmniSSR:零样本全向图像超分辨率利用稳定扩散模型
通过使用稳定扩散模型的图像先验,将全向图像超分辨率与保真度和真实感相结合,实现了零样本学习,无需训练或微调。在两个基准数据集上的实验证明了该方法的有效性。
- OmniGS:使用全向图像进行快速辐射场重建的全向高斯喷洒
本文介绍了一种新的全向高斯散乱系统 ——OmniGS,它利用全向图像进行快速辐射场重建,通过对全向相机模型导数的理论分析,在 GPU 加速的全向光栅化器中直接对高斯函数进行散乱,实现了辐射场的可微优化,无需立方体贴图矫正或切平面近似。实验结 - AIGCOIQA2024: AI 生成全方位图像的感知质量评估
建立了一个名为 AIGCOIQA2024 的大规模 AI 生成全景图像 IQA 数据库,并构建了一个综合基准,以评估最先进的 IQA 模型在该数据库上的性能。
- 非中心全景室内数据集
首次提出了用于室内场景理解的非中心全景数据集,包含 2574 个 RGB 非中心全景图像,每个图像都有深度图和注释,以获取室内空间的布局和相机姿态。
- OmniSCV:一种面向计算机视觉的全向合成图像生成器
我们提出了一个工具,用于生成具有语义和深度信息的全向图像数据集。这些图像是从采集于虚拟环境中的捕捉集合中合成的,能够提供像素级的关于语义、深度以及摄像头的校准参数的信息,从而为机器学习算法的训练和三维视觉方法的测试提供了像素精度的真实信息。
- ICCVOmniZoomer: 学会在高分辨率下移动和缩放球体
本文介绍了一种新的基于深度学习的方法,称为 OmniZoomer,它将 Möbius 变换纳入网络中,实现对全景图像的移动和缩放,并通过学习不同条件下的变换特征图来处理模糊效应和失真问题。
- 基于不确定性感知的结构知识迁移的 360 度高分辨深度估计
本文介绍了一种使用弱监督学习方法来进行全景 3D 深度估计的高分辨率重建技术,该技术能够从低分辨率全景图像中提取场景结构知识并将其传递到高分辨率深度估计中。
- OSRT: 基于畸变感知变换器的全向图像超分辨率
本文提出了一种基于 Fisheye 降采样和失真感知 Transformer 的方法,用于实现全景图像的高清增强,实验结果表明其表现优于以往的方法。
- OmniPD:一步完成全景室内视角的行人检测
本文提出了一种基于卷积神经网络进行一步检测的全景俯视室内场景人物检测器,并利用数据增强和迁移学习技术,以及 Microsoft COCO 和 PASCAL VOC 数据集进行了 fine-tune 和评估,获得了较好的检测精度。
- ICCV基于二十面体球的定向语义分割
该论文提出了一种适用于全景图像的方位感知卷积神经网络框架,该框架可以更高效地进行分类和语义分割任务,并为自动驾驶系统等应用程序提供了 “全景式” 理解周围环境的能力。
- PanoRoom:从球体到 3D 布局
我们提出了一种新型的 FCN,能够与全向图像一起工作,输出精确的概率地图,表示室内场景的主要结构,能够适用于不同的数据。我们的方法处理遮挡,并且更准确地恢复了房间实际形状。我们不仅在 3D 模型精度方面优于现有技术,而且在速度方面也优于现有 - 使用非极大值抑制提高全方位图像的人体检测
本研究提出一种基于卷积神经网络的人物检测器,能够在全景图像中准确生成人物的最小外接矩形。根据检测器的原始边界框,我们通过非最大值抑制、软非最大值抑制和带有高斯平滑的软非最大值抑制三种方法对边界框进行微调,并在 PIROPO 数据库和自己注释 - VR IQA NET: 基于对抗学习的深度虚拟现实图像质量评估
本研究提出了一种新型的基于对抗学习的全景图像虚拟现实图像质量评估方法,通过使用深度网络来考虑全景图像的特性,其中包括新颖的质量评分预测器和人类感知指导器,用于自动预测畸变图像的质量得分,并使用对抗学习将其与人类感知得分进行比较。在全景图像数 - SalNet360:使用 CNN 生成全向图像的显著性图
本文提出了一种对卷积神经网络进行扩展的架构,以使其能够有效地预测全向图像(ODI)中的视觉关注数据,从而为内容创建者提供帮助。研究人员通过展示每一步都可以使所生成的显着性地图与基础真实数据更加准确来证明这一算法的可行性。