CVPRAug, 2021

使用大批次和相似度混合的 Top-k 替代损失

TL;DR通过发掘新的损失函数、批大小和新的正则化方法之间的相互作用来学习用于检索的深度视觉表示模型。提出了一种可微的代理损失作为召回的替代,使用一个实现操作在成对标量相似度上的有效的混合正则化方法,以训练具有极高批大小的模型。该方法在多个图像检索基准测试中实现了最好的性能。