关键词imbalanced training data
搜索结果 - 4
- AI 公平性的感知 - 思维模型的效益与风险
最近,在机器学习模型的速度、准确性和公平性方面改进的潜力上,利用留置集在训练过程中的转导学习方法已经越来越受欢迎。然而,留置集本身的构成,特别是敏感子群的平衡,却一直被忽视。我们在 CIFAR 和 CelebA 数据集上的实验表明,留置集中 - 通过推广较少代表性的类别来进行单次人脸识别
本文提出了解决大规模人脸识别模型在存在类别不平衡数据时的训练问题的解决方案,包括面部特征提取模型和基于该模型的多分类模型,其中提出了一种新的监督信号(低频类别升级损失函数),在 MS-Celeb-1M 数据集上实现了优异的性能表现(94.8 - 利用深度神经网络进行大规模 YouTube-8M 视频理解
本文基于 YouTube-8M 大规模数据集,提出了三种视频分类模型,分别基于帧池化和 LSTM 网络,第三个模型使用 Experts 混合中间层以增加模型容量,并进行了一系列处理不平衡训练数据的实验。
- CVPR语义图像分割中的损失最大池化
介绍了一种新的损失最大池化方法,用于处理数据不平衡的情况,可作为深度神经网络中的替代损失层用于语义图像分割中,通过自适应重新加权像素的贡献来解决分类器对于少数类别偏向性的问题,理论和实验结果都表明该方法可以有效提高图像分割效果。