Siam R-CNN:通过重新检测进行视觉跟踪
Siamese Track-RCNN 提出了一种单一追踪系统,其中包括检测支路、基于 Siamese 的跟踪支路和物体重新识别支路,测试表明其在 MOTChallenge 等数据集中的表现优于现有方法且更加高效。
Apr, 2020
该研究提出了一种使用全卷积孪生网络以像素级方式解决视觉跟踪问题的方法,其中包括特征提取和边界框预测两个子网络,不需要基于区域建议,能够更简单、更准确地进行目标跟踪。
Nov, 2019
本文提出了一种名为 SiamRCR 的新型同孪网络追踪算法,建立了分类和回归分支之间的相互关联,通过添加定位分支来解决分类和回归不准确之间的问题,证明其在多个实验结果上具有优越性。
May, 2021
本篇研究提出了一种能够追踪物体的算法 SiamVGG,通过结合使用 Deep Neural Network 和 Convolutional Neural Network 技术以及 Cross-correlation 算子,可以在保证较高跟踪精度的同时达到较好的实时性能。
Feb, 2019
在本文中,我们提出了两种简单而有效的机制:角度估计和空间遮罩,以解决 Siamese 网络追踪器的旋转和背景干扰问题,并提出了一个名为 Siam-BM 的结果追踪器,它不仅显着提高了追踪性能,而且更重要的是保持了实时性。在 VOT2017 数据集上的评估表明,Siam-BM 实现了 0.335 的 EAO,这使其成为迄今为止表现最佳的实时追踪器。
Sep, 2018
本文提出一种新颖的数据关联方法,通过引入一个两阶段的学习方案来匹配检测对,第一阶段使用 Siamese 卷积神经网络来学习编码两个输入图像 patch 之间的局部空时结构描述符。第二阶段使用由比较的输入 patch 的位置和大小导出的一组上下文特征,通过梯度提升分类器与 CNN 输出结合来生成最终匹配概率,表明即使简单高效的跟踪器也可能在我们学习的匹配概率上表现优异,已公开可用的序列结果表明我们的方法达到了多人跟踪的最新标准。
Apr, 2016
通过利用完全卷积网络的表达能力,将视觉跟踪问题视为并行分类和回归问题,避免了与候选框相关的超参数,使得 SiamBAN 更具灵活性和通用性。在包括 VOT2018、VOT2019、OTB100、NFS、UAV123 和 LaSOT 的视觉跟踪基准测试中进行了广泛实验,证明了 SiamBAN 的高效性和有效性。
Mar, 2020
研究者通过理论分析和实验证明了 Siamese trackers 缺乏严格的平移不变性,为此提出了一种用于改善性能的有效的空间感知采样策略。通过进行广泛的消融研究,该模型在四个跟踪基准中获得了最佳结果,包括 OTB2015、VOT2018、UAV123 和 LaSOT。
Dec, 2018
本文提出了一种基于 3D 点云数据的 3D-SiamRPN 网络方法,利用两个子网络的特征嵌入子网络和区域建议网络进行单目标跟踪,该方法在 KITTI 数据集和 H3D 数据集上展现出优秀的性能和泛化能力,还能实现实时追踪。
Aug, 2021
提出了一种基于 Siamese 网络的实时物体跟踪方法,利用图像分类任务中学习到的语义特征和相似度匹配任务中学习到的外观特征相结合,其中包括两个支路,一个用于语义特征学习,另一个用于外观特征学习,并针对前者提出了通道注意力机制,同时在 OTB-2013/50/100 数据集上取得了比其他实时跟踪器更好的性能。
Feb, 2018