本文提出了一种融合高层次信息以进行语义图像分割的卷积神经网络,使用三层生成结构包括高级编码,中级分割和低级图像进行全局信息分割,使用条件变分自编码器建立这三层之间的连接,提高了分割的精确度和性能。
Nov, 2015
该论文提出一种利用单个 RGB 图像重建车辆的方法,通过学习形状先验和使用卷积神经网络技术,恢复车辆的 3D 姿势和形状,同时通过迭代重新加权最小二乘(IRLS)方法对噪声进行建模和优化,以达到在自动驾驶领域中优于现有单眼和立体摄像头方法的结果。
Sep, 2016
我们提出了一种在室内环境中获取语义分割和目标实例检测伪标签的成本效益标注方法,旨在为各种下游任务训练轻量级模型提供便利,通过多视图标注融合阶段,识别和纠正单视图不一致现象,并通过与人工注释的比较和目标导航等下游任务的效果评估,证明了该方法的有效性。
Nov, 2023
提出了一种基于编码器 - 解码器网络的视频未来语义分割预测方法,使用先前的视频帧,仅利用 RGB 数据,利用知识蒸馏的训练框架预测未来场景的语义分割,并在 Cityscapes 和 Apolloscape 上取得了比基线和现有最先进方法更好的结果。
Apr, 2019
应用深度学习的卷积神经网络,结合运动先验信息,通过弱监督主动学习方法对图像中的人体进行分割,同时采用领域自适应方法提高了算法的性能。
Jul, 2018
本文通过使用图卷积网络和深度强化学习框架将语义先验知识纳入到语义导航的任务中,证明语义知识如何显著提高性能并改善对未知场景和 / 或对象的泛化能力。
Oct, 2018
本文提出了将语义先验嵌入显式和隐式显著性图中的算法,以形成像素精度显著性图。在 ECSSD 和 HKUIS 两个具有挑战性的数据集上进行的广泛实验表明,本方法优于其他最新方法。
May, 2017
本文提出了一种从经过预训练的对象识别神经网络中提取精确掩模的新方法,由此摆脱了外部对象模块,并展示了如何通过前后景图像将它们融合与弱监督本地化网络提取的信息,我们的实验结果表明,将这些掩模与弱监督训练损失结合使用可以获得基于标签的弱监督语义分割的最先进结果。
Jun, 2017
本研究旨在利用深度学习和多模态传感器融合技术提高端到端自动驾驶的性能和泛化能力,通过同时实现场景理解和车辆控制命令的像素级语义分割来测试该深度学习驱动的自动驾驶模型在高度逼真的仿真城市驾驶条件下的性能和通用能力,结果显示,该模型定位和避障等任务的成功率强于先前的模型,并验证了多模态传感器融合和场景理解子任务的协同作用提高了模型的性能和可行性。
May, 2020
提出了一种自适应动态融合多模态语义分割框架,采用自监督模型的融合机制来优化融合多模态特征,在物体类别、空间位置和场景上下文方面增强鲁棒性,同时提出了一种计算高效的 AdapNet ++ 单模分割体系结构,并获得了最新的性能。
Aug, 2018