分类的大边缘判别损失
本文提出采用最大化间隔损失的优化目标,定义类间隔与样本间隔,推导出广义的间隔 softmax 损失,并在此基础上设计出新工具,即样本间隔正则化、适用于类均衡情形的最大间隔 softmax 损失和适用于类不平衡情形的零中心正则化。实验结果表明,本文的方法对于视觉分类、样本不平衡分类、人员重新识别和人脸验证等任务具有很好的效果。
Jun, 2022
本篇论文提出了一种新的损失函数,通过对深度神经网络中任意一组层(包括输入和隐藏层)的度量度量范数施加边缘来实现任意选择度量的边缘的深度网络。本文的损失具有较好的特性,适用于小训练集,分类和鲁棒性等任务,与现有数据扩增和正则化技术相辅相成。
Mar, 2018
本文提出了 L-Softmax loss 作为一种广义的大边际 softmax(L-Softmax)损失函数,可以显式地鼓励所学特征的类内紧密性和类间可分性,并且能够调整想要的边际并避免过拟合,并在四个基准数据集上进行了广泛实验,结果表明使用 L-Softmax 且深度学习的特征更具有区分度,从而大大提高了各种视觉分类和验证任务的性能。
Dec, 2016
本论文提出了一种新的适应性损失函数,该函数强调错分特征向量以指导较有区别的特征学习,从而解决传统损失函数在面部识别中存在的问题,并在多个基准测试上取得了比其他先进替代方案更有效的实验结果。
Nov, 2019
本研究介绍了三种基于边界的深度说话人嵌入学习损失函数,以实现更优的说话人辨识性能。在 VoxCeleb1 和 SITW 两个公共数据集上的实验证明了该方法比传统的交叉熵损失函数 softmax 具有更优的性能,分别在两个数据集上实现了 25%~30% 的等误差率 (EER) 降低,并分别获得了 2.238% EER 和 2.761% EER 的性能表现。
Jun, 2019
通过引入 Gini impurity 所启发的新损失项和最小化两个高级特征分布之间的 Kullback-Leibler 散度,我们在两个图像分类数据集上进行了实验,并得出结论,将我们的新损失项集成到训练目标中始终优于仅使用交叉熵训练的模型,在不增加推理时间的情况下。
Feb, 2022
本文介绍一种负边距损失函数用于基于度量学习的 few-shot 学习方法,该方法显著优于常规 softmax 损失函数,并在三个标准 few-shot 分类基准上取得了最新的最高准确度。通过实现和理论分析,发现尽管负边距会降低训练班级的发散度,但它也可以避免将同一新班级的样本错误地映射到多个峰值或簇中,从而有助于新班级的区分。
Mar, 2020
本研究提出了一种基于大边界高斯混合(L-GM)损失函数的深度神经网络分类方法,相较于常规的 softmax cross-entropy 损失函数,通过加入分类边界和似然正则化,提高了分类准确性以及对于训练特征分布的建模精度,可以用于区分异常输入如对抗性样本等。经过 MNIST、CIFAR、ImageNet 和 LFW 等基准测试和对抗性样本测试,证明了本方法的有效性。
Mar, 2018
提出了一种新的损失函数,EM-Softmax,用于训练 CNN 模型的分类任务,以解决 softmax loss 在特征区分度和分类器弱点方面的局限性,并使用 Hilbert-Schmidt 独立性准则构建弱分类器的集合,通过实验验证其优于当前状态下的 softmax loss 和其他一些算法的性能。
May, 2018