CVPRApr, 2019

语义对齐减少偏见的零样本学习

TL;DR本文提出了一种新的零样本学习方法 ——Semantically Aligned Bias Reducing (SABR) ZSL,旨在通过学习一个潜在空间来解决 hubness 问题,同时通过交叉验证和弱转移约束来减轻示例类别偏移问题,并在三个基准数据集上广泛实验证明,与现有的最先进算法相比,在传统和推广的 ZSL 设置下,性能显著提高了 1.5-9%或 2-14%。