U-CE: 语义分割的不确定性感知交叉熵
这篇论文介绍了一种用于预测不确定性量化的基准测试方法,通过评估不同方法在三个流行数据集上对于识别被错分和不适当类别像素、以及校准的有效性,发现证据深度学习方法在高效量化不确定性方面表现最有潜力,提出了适用于高度不平衡数据的 Uncertainty-Focal-Cross-Entropy (UFCE) 损失函数,以及增强模型对高不确定性像素关注的缺空缩放规则项能够提高确定性不确定性量化。
May, 2024
本论文介绍了 Tamed Cross Entropy(TCE)损失函数,它是深度学习中用于分类任务的标准交叉熵(CE)损失的一个鲁棒派生物。通过使用 ResNet 架构在人工污染的四个图像数据集上进行评估,证明了 TCE 损失在所有测试场景中优于 CE 损失,并且不需要改变训练方案与 CE 损失相同。
Oct, 2018
本文研究了医学图像分割中全卷积神经网络的预测不确定性估计,包括使用 Dice 损失和交叉熵损失进行的分割质量和不确定性估计比较,基于批归一化和 Dice 损失的网络置信度校准及模型集成方法,以及有关医学图像分割的结构分割质量预测和检测等方面的研究。通过广泛的实验验证了这些内容,提出了用于置信度校准的实用方案,并表明模型集成可提高其置信度校准度。
Nov, 2019
提出了一种称为 UCC 的新型学习框架,它通过强弱数据增强、动态交叉集复制粘贴和不确定性引导的重新加权模块,结合了一致性和自我训练的优势,从而实现了半监督语义分割。在 Cityscapes 和 PASCAL VOC 2012 数据集上进行了广泛的实验,证明了 UCC 方法的有效性和优越性。
May, 2022
本文提出了一种名为 Symmetric cross entropy Learning 的深度神经网络学习方法,通过将 Cross Entropy 与 Reverse Cross Entropy 相结合,解决了在标签噪声存在下 CE 的过拟合与欠拟合问题,并在多个基准数据集和真实世界数据集实验中表现出优于其他现有方法的效果。
Aug, 2019
本文提出了一种基于深度学习的端到端系统,利用嘈杂的众包标签,通过多个注释器特定的 label confusion 层和参数耦合的方式,与神经分类器同时学习标签纠正机制,并提出了 CCEM 的正则化变种,以增强目标模型参数的可识别性。
Jun, 2023
我们介绍了一种名为 CLCE 的新方法,将标签感知对比学习与 CE 相结合,通过有效的负样本挖掘增强性能,在少样本学习和迁移学习中使得 CLCE 显著优于 CE。
Feb, 2024
提出一种用于概率像素级语义分割的深度学习框架 ——Bayesian SegNet,可以在测试时间执行带有丢弃的蒙特卡罗采样,以生成像素类标签的后验分布,从而改善小数据集的语义分割性能,提高 2-3% 的性能。
Nov, 2015
本文提出了一种新的名词实体识别(Named Entity Recognition,NER)的方法 NRCES,通过使用 sigmoid 函数减轻噪声的负面影响并平衡模型的收敛速度和噪声容忍度,成功地解决了大规模无标注数据集的识别问题,并在合成和现实数据集上表现出了鲁棒性。
Aug, 2022
本文提出了一种基于概率贝叶斯方法的神经网络预测置信度校准方案,最大化置信度期望效用,用最大置信度校准误差度量预测的置信度和错误之间的关系,并在 COVID-19 诊断中测试取得了显著的效果。
Jun, 2022