跨 IOU 损失的位置敏感视觉识别
本文提出了一种 CNN 方法,名为 IoU-Net,以预测物体检测边界框的 IoU 值,使得模型具有定位置信度,进而提高非极大值抑制算法(NMS)的精度,在 MS-COCO 数据集上实验表明 IoU-Net 方法适用于多种先进的物体检测器且有效。
Jul, 2018
本文介绍了一种基于概率的新型物体定位方法,通过在搜索区域中分配条件概率来实现物体边界框的精确推断,实验证明该方法可以显著提高目标检测性能,并且可以与现有的物体检测系统很容易地集成使用。
Nov, 2015
该研究针对场景坐标回归方法在视觉定位中估计相机姿态时出现的问题,提出了一种基于可学习的场景特定地标的 2D-3D 对应的视觉定位框架,并使用一种叫做 VS-Net 的网络模型解决了大量的类别不平衡问题。该方法在多个公共基准测试中表现出优异的性能表现。
May, 2021
使用更有效但结构简单的损失函数提高检测性能,通过引入基于目标尺度的权重和基于目标中心点的惩罚项处理现有损失的局限性,并设计了一个简单的多尺度头部结构,通过在每个预测尺度上应用 Scale and Location Sensitive (SLS) 损失函数,超过现有最先进方法的检测性能。
Mar, 2024
本文提出了一种基于深度学习的方法,通过视觉定位,使用锚点来预测场景的位置和摄像机方向或姿态(6 自由度),该方法使用统一定义的锚点并提出了一个深度学习架构,该架构预测场景中存在的最相关的锚点以及相对偏移量,并为该任务提出了一个多任务损失函数,无需基于真实位置信息评定,并在 CambridgeLandmarks 和 7 Scenes 上进行了实验以验证效果。与使用相同的特征提取器的先前最佳深度学习模型 Posenet(具有几何重投影损失)相比,我们的方法提升了室内和室外定位数据集中的中位误差,并在特定情况下,如街景中,将中位误差降低了 8m 以上。
Nov, 2018
本文提出了一种新的损失函数 ——Smooth IoU,用于直接优化边界框的交并比,在多个数据集上显示出比标准的 Huber 损失更好的性能表现,该方法可应用于物体检测问题,使用卷积神经网络进行训练。
Apr, 2023
研究单阶段物体检测器的损失函数对定位准确性的影响,并提出有关 IoU 平衡的损失函数以解决该问题,在 COCO、VOC 和 Cityscapes 等公共数据集上进行了广泛实验,证明了 IoU 平衡损失可以显著提高单阶段检测器的检测准确性。
Aug, 2019
本文提出了一种基于卷积神经网络的联合学习方法,以在语义相似的图像中获得稠密对应和发现对象地标,在解决训练数据不足方面取得了显著成效,并引入了概率学习方法以提高框架的稳健性,该方法在语义匹配和地标检测的多个标准基准测试中取得了最新的最佳表现。
Oct, 2019
本文提出了一种名为 GC-Net 的几何约束网络,用于弱监督物体定位,并引入了一种新颖的多任务损失函数,使得该网络可以无需后处理(如阈值)即可进行端到端训练,并在 CUB-200-2011 数据集上表现卓越。
Jul, 2020
本文提出了新的 Iou-aware Classification Score (IACS)、Varifocal Loss 以及 star-shaped bounding box feature,建立了基于 FCOS+ATSS 体系结构的 IoU-aware dense object detector VarifocalNet (VFNet),在 MS COCO 数据集上进行了广泛实验,其效果表现出了明显的优势。
Aug, 2020