Aug, 2019

全局 - 局部时间表示用于视频行人再识别

TL;DR本文提出了全局 - 局部时间表征(GLTR)的方法,以利用视频序列中的多尺度时间线索进行视频人物重新识别。这种方法通过对相邻帧中的短时时间线索进行建模,然后捕捉不连续帧之间的长期关系来构建。其中,短期时间线索是通过不同的时间扩张率平行膨胀卷积来表示行人的运动和外貌。利用时间自我注意模型来捕捉长期关系,以减轻视频序列中的遮挡和噪音。最终,通过简单的单流卷积神经网络将短期和长期时间线索聚合形成 GLTR。在四个广泛使用的视频 ReID 数据集上,GLTR 相对于基于身体部分线索或度量学习学习到的现有特征表现出显著的优越性。例如,在 MARS 数据集上,它取得了 87.02%的 Rank-1 精度,而且没有经过一次排序,优于目前的最新技术水平。