ICCVJul, 2023

MeMOTR: 长期记忆增强转换器用于多目标跟踪

TL;DR我们提出了 MeMOTR,一种用于多目标跟踪的长期记忆增强 Transformer 模型,通过使用自定义的记忆 - 注意力层注入长期记忆,使得相同目标的轨迹嵌入更加稳定和可分辨,显著提高了模型的目标关联能力。实验结果显示,MeMOTR 在 HOTA 和 AssA 指标上分别超过了现有方法的 7.9%和 13.0%,并且在 MOT17 上的关联性能也优于其他基于 Transformer 的方法,同时在 BDD100K 上也具有很好的泛化性能。