- 用于汽车场景解析的雷达光谱 - 语言模型
通过建立雷达光谱 - 语言模型,对雷达光谱测量的语义信息进行解释和利用,以提升自动驾驶领域中的场景分析性能。
- 基于高效注意力的特征增强场景解析
本文提出了一种新颖的特征增强网络,通过从多个特征提取级别收集空间上下文,并计算每个表示级别的注意力权重以生成最终的类别标签。该模型还学习了低分辨率下的空间上下文信息以保留场景元素之间的抽象空间关系并降低计算成本,最终的特征集合中融合了空间注 - SAI3D:在 3D 场景中分割任意实例
SAI3D 是一种新颖的零样本三维实例分割方法,通过整合来自 Segment Anything Model (SAM) 的几何先验和语义线索,将三维场景划分为几何原语,然后逐步合并为与多视角 SAM 掩码一致的三维实例分割。通过具有动态阈值 - 改进基于全景的夜间或低光城市驾驶场景分割
该论文提出了一种基于域转换方法的实用且高效的新型 Panoptic Segmentation 技术,以提高自动驾驶系统在夜间或光照不良环境下的性能和鲁棒性。
- CVPRLID 2020:学习来自不完美数据挑战结果
该报告总结了学习来自不完美数据的机器学习方法的挑战活动,数据集包括弱监督下的物体检测、语义分割和场景解析,以及一种新的评估指标 IoU 曲线。
- ECCVGINet: 场景解析的图交互网络
本文提出了图交互单元和语义上下文损失的方法,将语言学知识引入视觉图,增强上下文推断和刻画高层语义,最终在场景解析等任务上取得了优越的表现。
- CVPR剥离式汇聚:重新考虑场景解析的空间汇聚
本文提出了新的空间汇聚策略 - 带状池化 (strip pooling),通过比较其与传统空间汇聚技术的性能,使用带状池化建立了新的先进模型,在流行的基准测试中取得了新的最优结果。
- ECCV快速准确场景分割的语义流
本文提出了一种名为 'Flow Alignment Module' 的方法,通过学习场景不同层级之间的语义流,并将高层次特征有效和高效地广播到高分辨率特征,使得在轻量级骨干网络上如 ResNet-18 表现卓越,在 Cityscapes 数 - ICCV场景分割的自适应上下文网络
该研究提出了一种自适应上下文网络(ACNet)来捕捉基于像素需求的上下文,以全局上下文和局部上下文的竞争性融合为基础,进一步提高场景解析性能。
- NIPS寻找用于密集图像预测的高效多尺度架构
在本文中,我们探索了以场景解析、人物部分分割和语义图像分割为任务的密集图像预测的元学习技术的构建,我们构造了一个有用的搜索空间并演示了即使是通过有效的随机搜索,我们也能够找到优于人工设计的架构以及在城市街景解析、人物部分分割和语义图像分割等 - CVPRDeLS-3D: 3D 语义地图的深度定位与分割
该研究提出了一种基于深度学习的统一框架,通过将相机视频、运动传感器(GPS/IMU)和三维语义地图进行传感器融合,以实现自主驾驶、自我定位和场景分类等多个应用领域中场景解析和相机姿态同时处理的目的。研究使用的技术包括渲染技术,使用相机姿态和 - CVPRPAD-Net: 多任务引导的预测与蒸馏网络,用于同时深度估计和场景解析
本文提出了一种名为 PAD-Net 的神经网络模型,通过多任务引导预测和蒸馏机制使深度估计和场景解析能够同时进行,并在 NYUD-v2 和 Cityscapes 数据集上进行了验证。
- SalientDSO: 引入注意力机制的直接稀疏里程计
本文介绍了一种在直接稀疏视觉里结合使用视觉显著性和场景分析新方法,命名为 SalientDSO,并通过 CVL-UMD 数据集进行了定量和定性比较,超越了 DSO 和 ORB-SLAM 这两种最先进的方法。这是首次使用视觉显著性和场景分析来 - ICCV利用全局上下文嵌入进行场景解析
本文提出了基于参数化和非参数化模型的全局语境信息来进行场景解析,使用场景相似性训练上下文网络生成特征表示来生成空间和全局先验知识,然后将这些特征表示和先验知识嵌入到分割网络作为额外的全局上下文提示。实验表明该方法可以消除与全局上下文表示不兼 - CVPR金字塔场景解析网络
本文介绍了一种利用基于不同区域的上下文聚合和金字塔场景分割网络的全局上下文信息的方法,以进行场景分割任务,并在各种数据集上取得了最先进的性能表现。该方法在 PASCAL VOC 2012 基准和 Cityscapes 基准数据集上创造了新的 - AAAI多路径反馈循环神经网络用于场景解析
本研究提出一种新的 MPF-RNN 模型,通过多层反馈和多重加权循环结构,增强 RNN 建模长范围的上下文信息和识别易混淆像素的能力,此外还提出了考虑多次反馈的损失累积策略,从而在场景分割方面实现了比传统模型更优秀的性能表现。
- ADE20K 数据集场景语义理解
本研究介绍并分析 ADE20K 数据集及其相关的 Cascade 分割模块,用于场景解析并在语义分割网络中实现显著提升。同时,发现在 ADE20K 数据集训练的场景解析网络可以应用于各种不同场景和对象。
- ECCV学习动态分层模型进行场景标注
我们提出了一种动态分层模型,用于任意时间场景解析,通过学习一系列适应于图像的分层模型,可以在特定测试时间预算内优化模型性能,并展示了该方法在三个语义分割数据集上的优势。
- CVPR通过高效滤波实现的非参数场景解析
本文介绍了一种非参数方法,采用 “样本 - 筛选” 策略进行场景解析,通过图像相似性评分进行有标记的超像素抽样,并利用高效的过滤程序进行标签传输,从而使得更多有标记的样本得以应用。实验结果表明,该方法在两个基准数据集上的效果优于现有技术。
- CVPR深层分层解析用于语义分割
本文提出了一种基于学习的场景解析方法,通过逐层递归的上下文传播方式,以图像中的超像素为分类基础进行解析,并利用 MRF 模型建模结果的层次依赖关系从而实现对 Stanford Background,SIFT-Flow 和 Daimler u