对比多任务密集预测
该研究介绍了一种多任务学习架构,通过相关性引导的注意力和自我关注增强平均表示学习,以通过 2D 语义分割和几何相关的任务来综合理解复杂场景,并在室内和室外数据集上展示了其好处。
Jun, 2022
本文综述了当前深度学习在计算机视觉中的多任务学习领域的最新研究进展,主要关注密集预测任务,从网络架构和优化方法两个角度进行了阐述和总结,旨在探讨多任务共享表示学习的优势和局限性。
Apr, 2020
本研究提出了一种标签高效的方法,针对部分注释的数据(即每个图像不都有所有任务标签),在多个密集预测任务上联合学习,通过保留输入图像的高级信息,并成功利用任务关系对多任务学习进行监督学习的多任务训练程序。我们严格证明了我们的方法可以有效地利用具有未标记任务的图像,并且在三个标准基准测试中优于现有的半监督学习方法和相关方法。
Nov, 2021
多任务密集预测的研究中,我们通过引入 Segment Anything Model (SAM) 和基于高斯分布的区域表示,解决了部分标注数据、局部对齐和跨任务关系等挑战,提高了在部分监督多任务密集预测场景中的性能。
Mar, 2024
本文提出了一种新的时间序列表示学习方法,通过自监督任务的上下文、时间和转换一致性,结合不确定性加权方法,实现了多任务学习和跨领域传递学习,进而在时间序列分类、预测和异常检测等下游任务中取得了更好表现。
Mar, 2023
通过构建任意任务图的推理路径不变性以及利用跨任务一致性进行学习,可以更准确地预测和更好地泛化到分布之外的输入,并获得称为一致性能量的无监督度量,可作为无监督的置信度量和检测分布之外的输入的指标。
Jun, 2020
本研究提出一种渐进式解码融合(PDF)方法,通过基于任务表示相似性逐步结合任务解码器,缓解任务干扰,同时利用解码器共享的归纳偏差,提高多任务网络的泛化能力和对抗攻击鲁棒性。
Aug, 2022
本文介绍了一种名为 Multi-Level Contrastive Learning for Dense Prediction Task (MCL) 的自监督学习方法,该方法通过实现一种装配多尺度图像的贡献任务,显式地编码绝对位置和比例信息,从而使神经网络能够学习区域语义表示。实验表明,MCL 在各种数据集上始终优于最新的现有方法。
Apr, 2023
本文介绍了一种基于像素的密集自监督学习方法,通过考虑局部特征之间的对应关系,实现了对密集预测任务的有效优化,包括物体检测,语义分割和实例分割。与基线方法 MoCo-v2 相比,该方法仅引入了微不足道的计算开销,但表现出了更好的性能。
Nov, 2020