Alpha-Refine: 通过精确定界框估计提高跟踪性能
本研究提出了一种名为 Alpha-Refine (AR) 的新型、灵活、准确的细化模块,它显著提高了基本跟踪器的框估计质量,通过采用像素级相关、角预测头和辅助掩码头作为核心组件,AR 引导的 DiMP-super 在实时速度下实现了非常有竞争力的性能。
Dec, 2020
提出了一种新的框架,利用选择和细化策略自动改进跟踪算法生成的初始注释,包括一个时间评估网络和一个视觉几何改进网络,它们共同提供了一个原则性的方法来确保自动视频注释的质量,并且在大规模跟踪基准测试中表现出高度准确性。
Aug, 2021
该研究提出了一种基于目标状态估计和分类的新型跟踪架构,该架构通过离线学习将高层次的知识融入到目标状态估计中,以实现前所未有的边界框精度。同时,该架构还引入了一个在线训练的分类组件,以保证对干扰物高度鉴别性能。该跟踪框架在 5 个挑战基准测试中取得了新的 state-of-the-art 结果,在新的大规模 TrackingNet 数据集上取得了 15% 的相对增益,而运行速度超过 30 FPS。
Nov, 2018
本文提出了一种新的基于单一射击的检测器 RefineDet,它既具有两阶段方法的高精度,又保持了一阶段方法的高效率。RefineDet 由锚点精炼模块和目标检测模块组成,通过多任务损失函数的训练获得了最高的检测准确率。
Nov, 2017
我们提出了一种在 DETR-like 模型中处理定位问题的概念简单、高效、通用的框架 RefineBox。通过在训练良好的模型上添加插件而不是低效地设计新模型和从头训练,RefineBox 通过轻量级的细化网络来改进 DETR-like 检测器的输出。我们的方法易于实现和训练,因为它仅利用来自训练良好的检测模型的特征和预测框。在训练过程中,我们冻结了已训练的检测器,因此方法也具有高效性。此外,我们可以轻松将 RefineBox 推广到各种训练好的检测模型,而无需进行任何修改。实验证明了我们的 RefineBox 对于 DETR 及其代表性变种的有效性。我们的工作希望引起检测社区对当前 DETR-like 模型中的定位瓶颈的关注,并突出了 RefineBox 框架的潜力。代码和模型将在以下链接中公开提供: https://github.com/YiqunChen1999/RefineBox。
Jul, 2023
该论文提出了一种名为 RefineFace 的单次精炼人脸检测器,它由五个模块组成:选择性二步回归、选择性二步分类、比例感知边缘损失、特征监督模块和感受野增强。实验结果表明,该方法在 WIDER FACE、AFW、PASCAL Face、FDDB、MAFA 等数据集上均取得了最先进的结果,并在 VGA 分辨率图像中以 37.3 FPS 的速度运行。
Sep, 2019
训练基于框的检测器网络可以提高弱监督和无监督方法的定位性能,并且我们通过证明这些检测器可以用于改进原始网络从而为进一步的发展铺平了道路。我们通过在网络输出而不是图像数据上训练检测器并应用适当的损失反向传播方法来实现这一目标。我们的发现表明这种方法显著改善了 “通过视觉来了解物体的位置” 任务中的短语定位,以及各种无监督目标发现方法。我们的代码可以在指定的网址上找到。
Sep, 2023
该论文提出了一种基于物体感知的无锚点跟踪网络,通过直接预测目标对象的位置和规模,以及引入功能对齐模块来从预测的边界框中学习物体感知特征,从而提高跟踪鲁棒性和精度。实验证明,该跟踪器在五个基准测试中均取得了最先进的性能。
Jun, 2020
本文提出了一种基于主动策略生成边界框提供的 AttractioNet 方法及其核心部件 —— 基于 CNN 的边缘检测模块,它可在不考虑物体类别的情况下产生精确鲁棒的边界框预测,并在多个数据集上取得了明显优于已有研究成果的实验结果,可在目标检测任务中获得显著的性能提升。
Jun, 2016
本文提出了一种基于分割的跟踪器,通过分割掩码来描述目标,相较于边框,在形状和对齐上更加精确,并且引入了一个独立的实例定位组件用于提高跟踪的鲁棒性,最终在挑战的数据集上取得了 69.7% 的成功率。
Mar, 2022