少数类增量修正的不平衡深度学习
通过引入 Class Rectification Loss 正则化算法,利用 batch incremental hard sample mining 方案,在大规模训练数据中从少数属性类中挖掘极端样本,并发展出一种避免多数类占主导地位的端到端深度学习框架,可高效识别人脸或衣物等细节属性。试验结果显示,该框架在两个大规模标准数据集 CelebA 和 X-Domain 上,相对于现有的属性识别和不平衡数据学习模型,具有更好的优势和可扩展性。
Dec, 2017
Class-Incremental Learning faces a dual imbalance problem, which results in skewed gradient updates, catastrophic forgetting, and imbalanced forgetting, but these issues can be addressed using reweighting techniques and a distribution-aware knowledge distillation loss, leading to consistent improvements in performance.
Feb, 2024
基于深度强化学习的不平衡数据分类模型,通过将分类问题视为顺序决策过程,使用深度 Q 学习网络解决。在奖励函数和有益的学习环境的指导下,该模型能够更有效地识别少数样本,具有优异的分类性能。
Jan, 2019
本研究采用各种经典策略验证了其在类不平衡数据的表示学习有效性,并展示了同时在和类内外保持间隔的约束下学习更具有区分性的深度表示的方法:Cluster-based Large Margin Local Embedding (CLMLE),结合简单的 k 近邻聚类算法,改善了三维面部识别和面部属性预测任务中现有方法的准确性。
Jun, 2018
通过数据不平衡的角度来分析深度神经网络在连续学习新概念时容易出现灾难性遗忘问题,提出了一种名为 Uniform Prototype Contrastive Learning (UPCL) 的方法,通过学习均匀且紧凑的特征来解决动态不平衡问题,并通过在多个基准数据集上的实验验证了其在性能上的优越性。
May, 2024
本文提出了一个新的学习策略,来有效地解决在使用类不平衡数据时神经网络容易出现欠拟合和过拟合问题的困扰,该策略在小批量中混合了主类数据和其它数据的特征,旨在削弱主类数据的特征以防止神经网络优先拟合主类数据的情况,从而实现了类之间的训练过程平衡,并得到了在难度较大的数据集中的最新成果。
Apr, 2021
本文提出并验证了一种纠正新旧类别数据不平衡问题的方法,利用一个线性模型矫正了全连接层的弱分类偏见,在两个大型数据集 ImageNet 和 MS-Celeb-1M 上比现有算法表现更好。
May, 2019
通过迭代数据混合的马尔科夫决策过程(MDP)来解决不平衡数据集的问题,并通过使用数据扩充策略训练一个数据扩充策略并设计一种奖励信号,探索分类器的不确定性并鼓励性能提升,不考虑分类器的收敛,从而展示了解决具有不同类别少数样本的不平衡数据集的潜力和前景。
Aug, 2023
使用深度神经网络通过三元损失函数对多类别不平衡数据进行分类,修改特征分布以生成安全的少数类样本邻域,实验证明该方法优于常见的预处理方法及传统神经网络。
Dec, 2023
本文提出了一个名为 CILIATE 的新框架,用于修复迭代学习(IL)中存在的数据集偏差和算法偏差问题,并在三个流行数据集上通过独特重要样本的识别和强制学习提高 iCaRL、BiC 和 WA 等方法的性能。
Apr, 2023