语义分割中的补偿学习
本研究提出了一种 Gradient-Semantic Compensation (GSC) 模型,从梯度和语义的角度克服了增量语义分割中的灾难性遗忘和背景转移问题。通过重新加权梯度反向传播来平衡先前训练类别的遗忘速度,同时提出了软锐语义关系蒸馏来减轻语义方面的灾难性遗忘,并使用原型伪重新标签方法提供强大的语义引导以减轻背景转移问题。在 Pascal VOC 2012、ADE20K 和 Cityscapes 三个公共数据集上的大量实验证明了提出的 GSC 模型的有效性。
Jul, 2023
本文提出一种使用 “超集学习” 框架来处理标签噪声的方法,将目标信息进行模糊化,并添加额外的备选标签,以协同改善学习器的泛化性能。实验结果表明该方法在合成和真实数据上都能有效检测和纠正错误的训练标签。
May, 2023
提出了一种基于自监督学习和伪标签的自训练方法,用于减轻深度神经网络在逐步学习新类任务时出现的灾难性遗忘问题,该方法不仅考虑了历史任务的知识,还利用了额外的数据提高了语义分割的性能。
Dec, 2020
提出了一个深度学习神经网络的标签检查和修正方法,该方法结合了小损失选择和噪声校正的思想,采用两个不同的网络来通过小损失选择方法训练,并根据两网络的分类误差和同意误差的评估来度量训练数据的置信度,在真实和人工数据集上测试表明该方法优于基准方法。
Feb, 2022
本文研究了连续语义分割问题,提出使用表示补偿(RC)模块结构再参数化机制,以解决网络需要连续整合新类别但避免灾难性遗忘的问题。通过知识蒸馏策略,增强了模型的可塑性和稳定性。在两个有挑战性的实验场景中,无需任何额外的计算负担和参数,模型的性能超过了最先进的性能。
Mar, 2022
本文提出了一种基于对比度学习的语义分割训练策略,使用像素级和标签基础对比损失的方法,能够在减少标记数据的情况下提高性能,并通过 Cityscapes 和 PASCAL VOC 2012 数据集的实验证明了该方法的有效性。
Dec, 2020
通过众包标注系统和基于伪标签和对比学习的新方法,解决了由于用户知识、文化背景差异和获得监督信息的高成本而导致的标注信息不充分和含糊不清的问题,实现了半监督部分标签学习的最先进表现。
Oct, 2022
通过对比注意力的公平性学习方法,解决持续学习中语义场景理解的灾难性遗忘、公平性、背景转移和未知类的问题,并在 ADE20K、Cityscapes 和 Pascal VOC 等标准基准上取得了最先进的性能。
Nov, 2023
该研究提出了一种名为 LA-SCA 的框架,利用序列注释中的专家间的互相不一致性来探索不确定性和歧义,从而有效地保留混淆标签信息。通过建立层次贝叶斯模型来从人群中推断出真实数据并将相对可靠的标注者分组,计算可靠标注者之间的互相不一致性来获取标签混淆信息,并在成本敏感的序列标注中加以应用。实验结果表明,该框架在从人群中推断真实数据、预测未知序列和揭示具有相似可靠性的标注者的标注模式方面均表现出竞争力。
Jan, 2023
本文提出了一种基于公平性目标的新型公平连续学习框架,通过基于类分布的方法来解决语义分割中的公平问题,并提出了一种新型的原型对比聚类损失和有条件的结构一致性损失,用于应对连续学习中的灾难性遗忘和背景变化等重要挑战。该方法在三个标准的场景理解基准测试中均取得了最新的表现,并提高了模型的公平性。
May, 2023