提出了一种可靠的长尾分布数据分类方法,采用多个专家框架联合进行分类和确定难样本,利用证据理论 (DST) 组合各种不同的不确定性和证据,同时通过动态专家引入实现高效率和可靠不确定性预测。
Nov, 2021
本文提出一种基于不确定性的假标签选择框架,通过减少训练过程中的噪音来提高假标签的准确性,并可以生成负假标签用于多标签分类和负学习,相比于最近的半监督学习方法在 CIFAR-10、CIFAR-100、UCF-101 和 Pascal VOC 数据集上获得了很好的性能。
Jan, 2021
本研究提出了一种无标签学习的新方法,将区间估计引入了样本选择过程,以更好地探索未被充分选择的正确标注但看似贴错标签的较大损失数据和代表性差的数据,提高了误标噪声下的学习鲁棒性。
Jun, 2021
提出了两种新方法,一种是平衡取向的数据增强(Uniform Mixup),另一种是基于贝叶斯理论的 Bayes Bias,并通过理论和实验证明,这两种方法能够确保分类校准和提高性能。
本文提出了一种基于不确定性感知的新型无监督目标函数,结合最近 SSL 技术,在保证计算效率的同时,在基准数据集中表现优于或与现有最先进技术水平相当,尤其在复杂数据集如 CIFAR-100 和 Mini-ImageNet 上表现最好。
Jul, 2022
无源无监督域自适应的不确定性伪标签过滤适应(UPA)方法,通过自适应伪标签选择(APS)模块进行精确过滤,同时引入类感知对比学习(CACL)以降低伪标签噪声的记忆化,实现与最先进的方法相当的竞争性能。
Mar, 2024
我们提出了一种基于样本不确定性的学习方法,通过引入更能体现样本不确定性的模型,来改善不同任务情景下的模型对齐,实验证明我们的方法能显著提高模型性能和数据效率。
Jun, 2024
研究了在长尾标签分布下标签噪声问题,提出了一种新的原型噪声检测方法及一个鲁棒的框架,该框架通过软伪标签技术和半监督学习算法进一步提高了泛化性能,并且在基准和真实数据集上表现优于现有基线模型,尤其是比 DivideMix 模型测试精度高出 3%。
Aug, 2021
我们提出了一种新的半监督语义分割视角,通过对训练数据集中标记和无标记分布的分析,我们发现即使两个数据集采样自相同分布,标记和无标记数据集之间的分布差异也不能忽视。为了解决这个问题,我们在理论上进行了分析并从实验上证明了适当提高无标记数据的不确定性可以帮助减小分布差异,从而提高模型的推广能力。我们提出了两种策略,并设计了一种特别针对半监督语义分割的不确定性增强算法,基于这些理论进行了大量实验,结果证实了算法和策略的有效性。我们的插拔式不确定性增强器小巧高效,对于超参数具有鲁棒性,但可以显著提升性能。与当前流行的半监督语义分割方法在常用基准数据集 Cityscapes 和 PASCAL VOC 2012 上不同的训练设置下,我们的方法在实验中取得了最新性能。
Nov, 2023
在半监督医学图像分割领域,如何从未标记的图像中有效学习图像特征以提高分割的准确性是研究的主要方向之一,本文基于自我训练框架,通过添加样本级别和像素级别的不确定性来稳定训练过程,即有选择地重新训练未标记的样本并为伪标签分配像素级别的不确定性来优化自我训练过程,实现了更好的分割性能。
Apr, 2023