本研究使用基于图的方法来考虑全向相机的几何形式,并将其扩展到深度学习体系结构中,旨在提高全向图像分类的准确性。实验证明所提出的方法优于当前用于全向图像分类问题的技术。
Jul, 2017
本文提出了一种新颖的端到端深度神经网络模型,用于从广角多视角立体成像中实现全向深度估计,并提出了大规模的合成数据集来用于算法的训练与测试。结果表明,所提出的方法在合成和实际环境中都生成了出色的结果,并优于现有技术。
Aug, 2019
本研究概述了全向(360 度)视频在计算机视觉算法中面临的挑战,如广泛采用的特殊(equirectangular)投影和巨大的图像尺寸,并提出了适应全向视频特定需求的计算机视觉算法策略。
Jul, 2019
本文提出在未经校正的鱼眼图像上运行的多任务视觉感知网络来加强自动汽车系统的六个主要任务,其中包括深度估计,视觉测距,语义分割,动态分割,目标检测以及镜头污染检测,通过联合训练模型,在 KITTI 数据集上实现深度估计和姿态估计任务的最新结果。
Feb, 2021
本文提出了一种新颖的广基线全向立体算法,使用深度卷积神经网络从鱼眼图像计算密集深度估计,直接生成具有全 360 度覆盖的密集全向深度图,该算法的实验结果表明,在合成和实际数据集上,比传统的深度估计方法具有更高的准确性。
Feb, 2019
本文介绍一个新的大规模室内合成数据集 THEODORE,包含 100,000 张物体的高分辨率多样化鱼眼图像,附带语义分割、实例掩模和物体检测任务的边界框注释,通过图像合成和域随机化高度泛化我们的模型,AP 可达 0.84
Nov, 2020
我们提出了一个工具,用于生成具有语义和深度信息的全向图像数据集。这些图像是从采集于虚拟环境中的捕捉集合中合成的,能够提供像素级的关于语义、深度以及摄像头的校准参数的信息,从而为机器学习算法的训练和三维视觉方法的测试提供了像素精度的真实信息。
Jan, 2024
本研究提出了一种处理全景图像的深度学习算法,通过样式和投影转换,重新训练和调整现有的算法,从单目全景图像中恢复场景深度和车辆的三维姿态,大大提高了无人驾驶汽车使用全景摄像头时的准确性。
Aug, 2018
本文介绍了一个大规模 360 度视频数据集,包含各种环境和上下文,以及相机的姿态和深度图,证明了该数据集在单一图像深度估计和视图合成两个主要任务中的相关性。
Jun, 2024
提出了一个基于视觉转换器的新型全景视频模型 SalViT360,利用切线图像表示,在球面几何感知的时空自注意机制方面提出了一种有效的全景视频理解方法,并引入了一种基于一致性的无监督正则化项以减少 360 度密集预测模型中逆投影之后出现的伪影,实验证明了该方法在三个全景视觉显著性数据集上的有效性超过了现有技术。
Aug, 2023