M2m: 基于主次平衡转换的非均衡分类
通过迭代数据混合的马尔科夫决策过程(MDP)来解决不平衡数据集的问题,并通过使用数据扩充策略训练一个数据扩充策略并设计一种奖励信号,探索分类器的不确定性并鼓励性能提升,不考虑分类器的收敛,从而展示了解决具有不同类别少数样本的不平衡数据集的潜力和前景。
Aug, 2023
本文提出了一个新的学习策略,来有效地解决在使用类不平衡数据时神经网络容易出现欠拟合和过拟合问题的困扰,该策略在小批量中混合了主类数据和其它数据的特征,旨在削弱主类数据的特征以防止神经网络优先拟合主类数据的情况,从而实现了类之间的训练过程平衡,并得到了在难度较大的数据集中的最新成果。
Apr, 2021
通过增强传统的 SMOTE 方法并与 Mixup 结合,提出了一种统一的深度学习数据增强框架,实验结果表明该方法在深度不平衡分类任务上具有最先进的性能,并且在极度不平衡数据上也达到了优异的效果。
Aug, 2023
本研究通过组合神经网络分类器和生成对抗网络技术提出了一种联合数据集修复策略,用于解决数据集不平衡所导致的性能下降和数据偏差问题,实验证明这种方法可以提高分类器和生成对抗网络的鲁棒性。
Aug, 2020
通过提出 MoM 学习方法来解决数据不均衡问题,在命名实体识别任务中改善少数类别的预测性能,而不损失多数类别的性能,同时在多种语言、模型和框架中都取得了一致的性能提升。
Jan, 2024
本研究采用各种经典策略验证了其在类不平衡数据的表示学习有效性,并展示了同时在和类内外保持间隔的约束下学习更具有区分性的深度表示的方法:Cluster-based Large Margin Local Embedding (CLMLE),结合简单的 k 近邻聚类算法,改善了三维面部识别和面部属性预测任务中现有方法的准确性。
Jun, 2018
现实世界的数据集通常存在严重的类别不平衡问题,通过调整标准深度学习流程的现有组件,如批次大小、数据增强、优化器和标签平滑等,可以实现无需专门的类别不平衡方法即可达到最先进的性能,并提供了关于训练类别不平衡的关键建议和考虑因素,以及关于为什么类别不平衡方法成功或失败的理解。
Dec, 2023
本研究提出一种两阶段的微调神经网络的方法。首先,利用平衡权重重新设计模型进行初步的调整,然后再进行标准的微调过程,以解决在长尾分布数据上进行神经网络训练时类别不平衡和类别样本不足的问题。实验结果表明,这种方法在各种合成数据集和现实应用中都具有优越性。
Jul, 2022
提出一种基于 MixUp 正则化技术的平衡采样机制,称为 Balanced-MixUp,可以同时对训练数据进行正常(基于实例)和平衡(基于类)采样,使神经网络可以有效地学习高度不平衡的医学图像分类数据集。实验结果表明,Balanced-MixUp 优于其他常规采样方案和针对不平衡数据设计的损失函数。
Sep, 2021