Apr, 2019

语义对齐减少偏见的零样本学习

TL;DR本文提出了一种新的零样本学习方法——Semantically Aligned Bias Reducing (SABR) ZSL,旨在通过学习一个潜在空间来解决hubness问题,同时通过交叉验证和弱转移约束来减轻示例类别偏移问题,并在三个基准数据集上广泛实验证明,与现有的最先进算法相比,在传统和推广的ZSL设置下,性能显著提高了1.5-9%或2-14%。