本文提出一种基于多任务架构的视觉定位方法,通过将几何和语义信息融合到多尺度的嵌入表示中,使用有效的多尺度特征鉴别器进行对抗性训练,从虚拟数据集到现实世界数据集的领域适应,以实现图像检索定位及大规模地点识别。该方法在 Extended CMU-Seasons 数据集和 Oxford RobotCar 数据集上进行验证,结果表明本方法在具有挑战性的环境下的检索定位和大规模地点识别的表现优于现有方法。
Oct, 2020
本文概述了深度神经网络在自动驾驶中的应用,介绍了无监督领域自适应的多种方法和针对不同方法的现有研究,提出了该领域的最新趋势和未来方向,并鼓励科学家探索更好的神经网络泛化方法。
Apr, 2023
本文提出了一种无需真实图像数据的方法,通过修改前景和背景类的训练方法来适应合成图像,有效地训练出了适用于城市街景和驾驶场景的图像语义分割模型。
Jul, 2018
本论文介绍一种基于课程式学习(curriculum-style learning)的方法,通过学习全局标签分布和局部分布来缓解城市风景语义分割中真实图像和合成数据之间的领域差异,并在两个数据集和两个骨干网络上的实验中表现优异。
Jul, 2017
本文提出了一种新的旨在针对非结构化驾驶环境的 IDD 数据集,其中包括来自印度道路的 10,004 幅图像,涵盖了 34 个类别的精细注释,建议使用四级标签层次结构以适应不同训练方法,而现有的语义分割方法在 IDD 数据集上的准确度表现不佳。
Nov, 2018
在城市场景语义分割中,我们提出一种课程学习的方法来尽可能减小真实和合成数据之间的差距。该方法采用先易后难的策略,对全局标签分布和本地超像素标签分布进行先验知识的推断,并在此基础上训练语义分割网络。在两个数据集和两种 Backbone 网络上,我们的方法表现优于基线,并且进行了广泛的实验研究。
Dec, 2018
通过创建新的数据集 ANNA 并借助神经网络,本研究评估了现有数据集在孟加拉交通场景下的不足,并证明了使用该数据集训练的模型在孟加拉交通情境下更精确和高效,强调了开发准确有效的物体检测算法对自动驾驶车辆发展的重要性。
Jan, 2024
本研究提供了一种基于 CARLA 模拟器的 SELMA 综合数据集,其中包含来自 24 个不同的传感器(包括 RGB,深度,语义相机和 LiDAR)的 30K 个以上独特的航点,在 27 种不同的大气和白天条件下,共计超过 20M 个样本,可用于训练标准和多模态深度学习架构以实现自动驾驶系统中的准确场景理解。
Apr, 2022
该论文探讨了解决语义分割领域中的域适应问题,提出了基于生成模型和像素级域对齐的方法,通过实验表明其在解决合成数据到真实场景的语义分割问题上的优越性。
Sep, 2020
提出了基于动态架构并采用优化策略的多领域语义分割增量学习方法,旨在解决现有分割框架在视觉地理领域差异大的数据集序列中无法迭代学习的问题。实验结果验证了该方法在德国 (Cityscapes)、美国 (BDD100k) 和印度 (IDD) 道路驾驶环境中实现了良好的增量学习效果。
Oct, 2021