使用深度通道先验提高自动驾驶在现实世界退化中的视觉识别能力
通过提出三个小型,计算成本较低的深度端到端神经网络模型,直接从输入图像中产生驾驶控制信号,并利用深度和薄型全卷积网络与递归神经网络以及低参数计数等方法来解决复杂的端到端回归任务,预测转向和加速度指令,并包括分类优化层,以允许网络隐式地学习图像语义。我们证明,与最新的可比较的端到端驾驶网络相比,所得到的网络使用了3倍少的参数以及比AlexNet变化小500倍,同时维持对于过拟合的稳健性。
Nov, 2017
本文提出一种新的无监督领域自适应模型,通过像素级和特征级变换相结合解决了自主驾驶中更复杂的目标检测问题,同时引入了生成对抗网络和循环一致性损失以及区域提案特征对抗训练等方法,通过实验证明了本方法的鲁棒性和优越性。
Sep, 2018
本文提出一种完全无监督的将实际户外图像用于深度学习的单张图像去雾方法,该方法利用先前研究中广泛使用的暗通道先验能量函数进行训练,提高了结果的质量,并与大规模监督方法相当。
Dec, 2018
本研究针对自动驾驶相关的图像翻译任务,提出了一种基于准物理和数码的对抗扰动方法,有效地干扰了图像翻译模型的输出,揭示出其脆弱性和局限性,并通过改善网络的鲁棒性,进一步提高其性能和稳定性。
Jan, 2020
本文提出了一种在多个图像 ROI 特征和文本嵌入之间的余弦距离上最小化交叉熵损失来实现自动驾驶视觉定位的简单方法,使用预训练网络获得初始嵌入,同时实验结果表明比采用精细注意机制或复杂度损失函数的方法表现更优,AP50 准确率达到 68.7%。
Sep, 2020
本文探讨了基于概率的方式,采用已预训练网络的Logit层得分计算分布来进行物体识别,表明与SoftMax和Sigmoid相比,最大似然和最大后验函数更适合进行这种概率化解释,实现了良好的性能和可解释性。同时,由于这种方法可以在现有训练好的网络上实施,无需再进行训练。
Feb, 2022
本文概述了深度神经网络在自动驾驶中的应用,介绍了无监督领域自适应的多种方法和针对不同方法的现有研究,提出了该领域的最新趋势和未来方向,并鼓励科学家探索更好的神经网络泛化方法。
Apr, 2023
我们提出了一种基于相机的三维检测框架,名为Enhanced Multi-scale Image Feature Fusion (EMIFF),用于车辆和基础设施之间的协作感知任务。通过引入Multi-scale Cross Attention (MCA)和Camera-aware Channel Masking (CCM)模块,我们能够在尺度、空间和通道级别上增强基础设施和车辆特征,以修正由于相机不同步引入的姿态误差。同时,我们引入了Feature Compression (FC)模块,通过通道和空间压缩块提高传输效率。实验表明,EMIFF在DAIR-V2X-C数据集上取得了state-of-the-art结果,显著优于以往的早期融合和晚期融合方法,在可比较的传输成本下取得了优异的性能。
Feb, 2024
我们的研究介绍了一种名为LightDiff的领域定制框架,该框架旨在增强自动驾驶应用中低光照图像的质量,通过使用多条件控制扩散模型并运用增强学习来引导扩散训练过程,从而在夜间条件下显著提高多个先进的三维检测器的性能并实现高视觉质量分数。
Apr, 2024
本研究解决了自动驾驶车辆和机器人在夜间低光照和运动模糊下的视觉感知问题,现有方法常导致较大的失真。论文提出了一种新颖的基于变换器的联合学习框架DAP-LED,利用CLIP模型自适应地学习夜间图像的降级水平,从而实现低光增强和去模糊,显著提高了暗环境下的视觉感知效果。
Sep, 2024