该研究提出了一种新的最小间隔损失函数 (MML),用于增强深度特征的区分能力,该方法能够取得最先进的性能表现。
May, 2018
本文设计了一种新的最大边距 (MM) 损失函数来解决类不平衡数据中存在的分类不平衡问题,并探讨了两种基于最大边界的决策边界位移方法在 LDAM 训练日程上的表现。
Jun, 2022
本文提出了一种新的度量学习损失,称为边际采样挖掘损失(MSML),它采用硬样本挖掘,并能够比其他度量学习损失(如三元组损失)获得更好的精度。在实验中,我们的方法在 Market1501、MARS、CUHK03 和 CUHK-SYSU 等数据集上的性能超过了大多数最先进的算法。
Oct, 2017
该论文提出两种简单且有效的基于强大损失设计的方法,通过减少假负例的影响及使用基于缺失标签的最大似然标准来改进多标签学习的性能,从而在大量多标签图像分类数据集上实现了新的最先进的损失函数。
Dec, 2021
本文提出了一种针对距离度量学习的负采样策略,在推荐方面获得了不错的准确度和普及性偏差表现。该策略使得 CML 模型即使在批处理大小比默认采样策略需要的批处理大小小一个数量级的情况下,仍然能够高效地工作。
Sep, 2019
本研究在无监督学习中采用了最大化分类器决策边界的最大间隔对比学习方法,通过 SVM 优化问题选择出稀疏支持向量作为负样本,并优化算法以减小计算复杂度,从而在视觉基准数据集中获得了更好的无监督表征学习性能。
本文介绍一种负边距损失函数用于基于度量学习的 few-shot 学习方法,该方法显著优于常规 softmax 损失函数,并在三个标准 few-shot 分类基准上取得了最新的最高准确度。通过实现和理论分析,发现尽管负边距会降低训练班级的发散度,但它也可以避免将同一新班级的样本错误地映射到多个峰值或簇中,从而有助于新班级的区分。
Mar, 2020
本文针对小样本学习(few-shot learning)的泛化困难问题,提出了一种自适应_margin_方法,改善了基于度量的元学习方法的泛化能力,并通过实验验证了该方法的有效性。
May, 2020
本文分析了现有损失函数之间的关系,揭示了先前的损失函数可以解释为对齐和均匀度函数,并基于此分析提出了一种新的损失函数 MAWU,该函数考虑了数据集的独特模式,通过缓解用户 / 物品特定的流行度偏差和调整用户和物品均匀度之间的重要性,使得使用 MAWU 的 MF 和 LightGCN 在三个公共数据集上与各种损失函数的最先进的协同过滤模型相媲美或更优。
Aug, 2023
该论文研究了自监督学习中的对比学习策略,分析了边缘对梯度的调控作用,并提出了可能的改进方向,实验证明这些特性有助于获取更好的表征,并能够提高在数据集中的性能表现。
Jun, 2023