通过最大化潜在特征与真实标签之间的互信息进行长尾识别
该论文针对长尾数据分类的问题,从特征层面提出了特征增强及对数调整方法,用以平衡嵌入(embedding)分布,消除分类器偏差,实验表明该方法超越了现有的最佳方法。
May, 2023
我们进行了关于有监督对比学习在多标签文本分类中的影响以及如何构建稳健的表示空间的研究,提出了一种新的对比损失函数,并在三个多标签数据集上实现了显著的宏 F1 分数改进。
Apr, 2024
本文介绍了两种简单的技术对抗现实场景中数据标签分布的不平衡性,包括采用标签频率进行 logistic 校准 以及在训练过程中强制实施其中之一或两种技术能够鼓励罕见标签与支配标签之间拥有一个相对较大的罕见标签较大的标签在一些学习情况中具有更好的表现。
Jul, 2020
本文提出了一种适用于长尾数据的新的神经网络训练方法,使用高斯混合调整不同分类逻辑回归的差异,实现对样本在嵌入空间的调整,从而解决长尾问题,同时也提出了一种分类器的重新训练策略来减轻歧视,实验表明该方法具有卓越的性能。
May, 2023
本文介绍了一种名为双分支长尾识别(DB-LTR)的简单而有效的模型,它包括一个不平衡学习分支和一个对比学习分支(CoLB),通过利用常见的不平衡学习方法来解决数据不平衡问题,并通过对比学习分支来改善模型对尾部类别的适应能力,并学习出一个具有很好表现特征空间和有区分度的决策边界。在 CIFAR100-LT、ImageNet-LT 和 Places-LT 三个长尾基准数据集上的大量实验证明,DB-LTR 相比比较方法具有竞争力且卓越。
Sep, 2023
通过协同多专家学习 (CoMe) 提出了一种新的长尾图级分类框架,从头部和尾部类的视角发展出平衡对比学习和基于难类挖掘的个体专家分类器训练,并在多专家框架中进行门控融合和解耦知识蒸馏。通过在七个广泛应用的基准数据集上进行全面实验,证明了我们的 CoMe 方法相对于现有技术基准的优势。
Aug, 2023
该论文研究了如何通过有针对性的监督对比学习,提高长尾识别中少数类的识别准确率,提出了针对性的监督对比学习方法 (TSC),通过让不同类别的特征向量在训练过程中收敛至不同且均匀分布的目标点,从而提高了特征空间的均匀性,改善类别边界,提高了模型的泛化能力,实验结果验证了 TSC 方法在多个数据集上均取得了当下最先进的表现。
Nov, 2021
本研究提出一种适用于长尾数据的平衡对比学习方法 (BCL),通过均衡梯度贡献和多类别出现于每次 mini-batch 的方式,使分类器实现更好的优化,并在多个长尾数据集上超过了现有竞争对手 (ClFAR-10-LT,CIFAR-100-LT, ImageNet-LT, 以及 iNaturalist2018)
Jul, 2022
本文系统总结了深度长尾学习的最新进展,围绕着类别再平衡、信息增强和模块改进三个主要类别对相关方法进行详细探讨,并通过提出的相对准确度评估指标对最先进的方法进行了实证分析,为深度长尾学习的应用和未来研究方向提供了重要的参考。
Oct, 2021
本文提出了通过使用平衡的特征损失,通过课程学习来加强长尾类别的激励,强化尾部类别的特征规范,从而提高了长尾问题的性能,并在多个受欢迎的长尾识别基准上实现了优越的性能增益。
May, 2023