Focaler-IoU:更聚焦的交并比损失函数
提出了一种针对目标检测中的边界框回归问题的新算法 DIoU Loss,通过加入距离项和三个几何因素(覆盖区域、中心点距离和长宽比),构建了更好的评价指标 CIoU Loss,并将 DIoU Loss 和 CIoU Loss 应用到现有的目标检测算法中,显著提高了性能。
Nov, 2019
本文提出了一种新的损失函数 SIoU,通过重新定义惩罚指标以考虑所需回归之间的向量角度,从而改进了传统目标检测中遇到的匹配方向问题,提高了训练速度和推断精度。
May, 2022
本文提出了一种新的损失函数 ——Smooth IoU,用于直接优化边界框的交并比,在多个数据集上显示出比标准的 Huber 损失更好的性能表现,该方法可应用于物体检测问题,使用卷积神经网络进行训练。
Apr, 2023
通过对边界框回归模型的分析,我们提出了 Inner-IoU 损失函数,通过辅助边界框计算 IoU 损失,在不同数据集和检测器中引入缩放因子比例以控制辅助边界框的尺寸,实现了边界框回归过程的加速,并通过模拟和比较实验证明了该方法的有效性和普适性,进一步提高了检测性能。
Nov, 2023
提出了一种关注边界框自身的形状和大小的边界框回归方法,通过 Shape IoU 方法计算损失,有效改进了检测性能,并在不同的检测任务中表现出色。
Dec, 2023
本研究主要关注物体检测领域中最受欢迎的衡量标准之一的交并比(IoU),提出了一种广义的 IoU(GIoU)作为新的回归损失和度量方式,并将其应用于现有的物体检测框架中,在 PASCAL VOC 和 MS COCO 等常见的物体检测基准测试中取得了一致的性能提升。
Feb, 2019
提出一种基于 extended IoU 并采用 convexification 和 steady optimization 技术的新型损失函数方法,用于提高物体检测中的定位精度,并在 Faster R-CNN with ResNet50+FPN 中实现了显著的 mAP 提高,同时计算和推断的成本几乎没有增加。
Dec, 2021
提出了一种基于点距离的任意形状比较的新型指标,以提高旋转对象检测中边界框回归的效率和准确性,并提出了一种基于四点距离的准确边界框回归损失函数 FPDIoU,通过三个旋转对象检测基准测试和两个任意方向场景文本检测基准测试的实验证明了其优于现有损失函数的性能。
May, 2024
该研究提出了一种新的物体检测方法 UnitBox,利用 Intersection over Union (IoU)loss 和深度卷积神经网络(CNNs)进行精准定位,成功在人脸检测任务中实现了最佳性能。
Aug, 2016
该研究探究了 IoU 计算在旋转边框中的应用,并实现了 IoU loss 层,使得在 2D 和 3D 目标检测任务中均获得了 KITTI 基准测试上的一致性改进。
Aug, 2019