利用动态预测不确定性的像素权重加权 U-CE(Uncertainty-aware Cross-Entropy loss)训练方法在两个基准数据集上优于传统 CE(cross-entropy loss)训练方法,提高了安全关键应用中更稳健可靠的分割模型的性能和可信度。
Jul, 2023
本文提出了一种名为 Symmetric cross entropy Learning 的深度神经网络学习方法,通过将 Cross Entropy 与 Reverse Cross Entropy 相结合,解决了在标签噪声存在下 CE 的过拟合与欠拟合问题,并在多个基准数据集和真实世界数据集实验中表现出优于其他现有方法的效果。
Aug, 2019
本文研究交叉熵方法在非凸优化中的应用,并提出了一种可微分的变体。在应用上,我们在合成能源预测任务和非凸连续控制中展示了其效果。特别是,我们展示了如何将最优的行动序列嵌入到一个低维空间中进行控制,从而通过策略优化来对基于 CEM 的控制器进行微调。
Sep, 2019
本文提出一些理论上支持的噪声稳健损失函数,包括平均绝对误差以及交叉熵损失函数,并已在 CIFAR-10,CIFAR-100 与 FASHION-MNIST 数据集及人工产生的噪声标签上进行了实验,结果表明这些损失函数能够有效应对各种噪声标签情况。
May, 2018
本文提出了一种基于序列的 Cumulative Cross-Entropy (CCE) 损失函数,在不使用负采样的情况下有效地训练了三种最先进的推荐模型,针对序列推荐系统中存在的缺陷,重点解决了序列信息利用率低的问题,并在五个基准数据集上进行了广泛的实验。
Jan, 2023
我们介绍了一种名为 CLCE 的新方法,将标签感知对比学习与 CE 相结合,通过有效的负样本挖掘增强性能,在少样本学习和迁移学习中使得 CLCE 显著优于 CE。
Feb, 2024
本文提出一种新方法聚合交叉熵(ACE)用于序列识别,其性能与 CTC 和注意力机制不相上下,但实现速度更快、存储要求更低、更便于使用,并能直接应用于 2D 预测及计数问题。
Apr, 2019
模型校准的新后续校准目标函数通过使用样本的转换版本来减少模型对错误预测样本的置信度并增加对正确预测样本的置信度,从而与现有技术在校准性能上达到相当竞争水平。
Apr, 2024
该论文提出了一种新的度量概率二元分类器的校准误差的指标,称为基于测试的校准误差(TCE),并引入了基于统计检验的损失函数和优化标准,以及针对校准误差度量的 binning 过程和优化算法,通过多个实验验证 TCE 的性质,包括多个现实世界不平衡数据集和 ImageNet 1000。
Jun, 2023
使用 Jensen-Shannon 抖动作为噪声容忍的损失函数, 将它与 CE 和 MAE 混合使用以改善可学习性,并区分噪声数据点周围的一致性。 通过用此方法在 CIFAR 和 WebVision 等数据集上进行试验表明能取得卓越的效果。
May, 2021