Jul, 2023

跨批次度量学习实现通用嵌入

TL;DR通过将全局平均池化 (GAP) 解释为可学习原型的凸组合,我们将深度度量学习 (DML) 中通常作为一种将重要性归因于不同语义实体的特征向量汇总方法的有效性,转化为了学习可用于表示未见类别的可推广实体的算法。同时,我们探究了两批次间彼此分离的类别,并通过利用其他批次适配的原型表达了一个批次的样本来优化学习。