Jul, 2023

MeMOTR: 长期记忆增强转换器用于多目标跟踪

TL;DR我们提出了MeMOTR,一种用于多目标跟踪的长期记忆增强Transformer模型,通过使用自定义的记忆-注意力层注入长期记忆,使得相同目标的轨迹嵌入更加稳定和可分辨,显著提高了模型的目标关联能力。实验结果显示,MeMOTR在HOTA和AssA指标上分别超过了现有方法的7.9%和13.0%,并且在MOT17上的关联性能也优于其他基于Transformer的方法,同时在BDD100K上也具有很好的泛化性能。