极限边缘:一种用于二分类问题的可调损失函数
本文设计了一种新的最大边距 (MM) 损失函数来解决类不平衡数据中存在的分类不平衡问题,并探讨了两种基于最大边界的决策边界位移方法在 LDAM 训练日程上的表现。
Jun, 2022
本文研究了广泛应用的交叉熵损失函数,提出了一族损失函数 comp-sum,包括了交叉熵、广义交叉熵、平均绝对误差等。我们首次给出了这些损失函数的 H - 相容性,进一步介绍了一种新的平滑对抗 comp-sum 损失函数,并证明了它们有助于在对抗性环境下提高模型的 H - 相容性。
Apr, 2023
通过使用一系列的损失函数进行训练,而不是单一的损失函数,我们提出了 Loss Conditional Training (LCT) 方法来解决高度不平衡的分类问题,实验结果表明该方法提高了模型性能并对超参数选择更具鲁棒性。
Feb, 2024
针对单层神经网络的拟合损失函数,研究神经网络算法中局部极小值的性质,提出当神经元是严格凸函数并且代理损失函数是铰链损失函数的平滑版本时,在所有局部极小值处训练误差为零的条件。同时,通过反例表明当损失函数替换为二次损失或逻辑损失时,该结论可能不成立。
Feb, 2018
研究凸代理损失函数与二元分类问题中线性预测的分类误差率最小化之间的关系,发现在所有凸代理损失函数中,铰链损失提供了最佳的界限。同时,提供了特定凸代理损失的下界,显示常用损失函数之间的区别。
Jun, 2012
本文提出了一种针对非可微和非可分解损失函数的优化方法,使用代理神经网络逐渐逼近真实损失函数,并通过联合双层优化学习预测模型和代理损失函数,实现了高效学习代理损失函数的效果。
May, 2019
本文提出采用最大化间隔损失的优化目标,定义类间隔与样本间隔,推导出广义的间隔 softmax 损失,并在此基础上设计出新工具,即样本间隔正则化、适用于类均衡情形的最大间隔 softmax 损失和适用于类不平衡情形的零中心正则化。实验结果表明,本文的方法对于视觉分类、样本不平衡分类、人员重新识别和人脸验证等任务具有很好的效果。
Jun, 2022