梯度感知的对数调整损失函数用于长尾分类器
本文提出了一种适用于长尾数据的新的神经网络训练方法,使用高斯混合调整不同分类逻辑回归的差异,实现对样本在嵌入空间的调整,从而解决长尾问题,同时也提出了一种分类器的重新训练策略来减轻歧视,实验表明该方法具有卓越的性能。
May, 2023
该论文针对长尾数据分类的问题,从特征层面提出了特征增强及对数调整方法,用以平衡嵌入(embedding)分布,消除分类器偏差,实验表明该方法超越了现有的最佳方法。
May, 2023
本文介绍了两种简单的技术对抗现实场景中数据标签分布的不平衡性,包括采用标签频率进行 logistic 校准 以及在训练过程中强制实施其中之一或两种技术能够鼓励罕见标签与支配标签之间拥有一个相对较大的罕见标签较大的标签在一些学习情况中具有更好的表现。
Jul, 2020
本文提出了一种新的分布校准方法,名为标签感知分布校准(LADC),它利用头部类的相关统计信息丰富尾部类,从而更准确地校准长尾分布的数据集。实验结果表明 LADC 显著优于现有的方法。
Nov, 2021
本文提出了一种称为分布平衡损失函数的新方法,用于解决多标签识别问题中遇到的长尾类分布、标签共现和负标签占主导的问题,并通过实验验证了该方法的有效性。
Jul, 2020
本研究中,我们解耦学习过程,系统地探索不同平衡策略如何影响长尾识别的表示学习和分类器。我们的发现表明,数据不平衡在学习高质量表示方面可能不是问题,在使用最简单的实例平衡抽样进行学习表示的情况下,只需调整分类器就能实现强大的长尾识别能力,甚至可以胜过精心设计的损失、采样策略以及使用记忆组件的复杂模块。
Oct, 2019
本文提出了通过使用平衡的特征损失,通过课程学习来加强长尾类别的激励,强化尾部类别的特征规范,从而提高了长尾问题的性能,并在多个受欢迎的长尾识别基准上实现了优越的性能增益。
May, 2023
提出了两种新方法,一种是平衡取向的数据增强(Uniform Mixup),另一种是基于贝叶斯理论的 Bayes Bias,并通过理论和实验证明,这两种方法能够确保分类校准和提高性能。
Nov, 2021