利用不确定性来加权损失的多任务学习,用于场景几何和语义
基于信息共享,提出了一种广义框架来联合估计面部的序数和名义属性,并通过考虑每个属性估计任务的同方差不确定性来权衡多个损失函数,以实现面部多属性的最优估计,并降低多任务学习的训练成本,与现有方法相比,实验证明所提出的方法具有优越的性能,最后,讨论了面部属性估计的偏差问题,并验证其在边缘系统上的可行性。
Mar, 2024
通过结合不同的不确定性量化方法与联合语义分割和单眼深度估计,我们评估它们相对于彼此的性能,同时揭示了多任务学习在不确定性质量方面相对于分别解决两个任务的优势。基于这些认识,我们引入了 EMUFormer,这是一种新颖的学生 - 教师蒸馏方法,用于联合语义分割和单眼深度估计以及高效的多任务不确定性量化,它通过隐式利用教师的预测不确定性,在 Cityscapes 和 NYUv2 上取得了新的最先进结果,并且对于两个任务都估计了与 Deep Ensemble 相当或更优的高质量预测不确定性,尽管其效率是 Deep Ensemble 的一个数量级。
Feb, 2024
本文介绍了一种基于不确定性加权方案的损失函数,用于对抗攻击,通过将更容易受到干扰的像素分类放大并清零已经被错误分类的像素的损失,以提高扰动性能。在多个数据集和模型的实证分析中,我们证明了这些加权方案能够显著改善扰动性能。
Oct, 2023
本研究提出了基于多流多任务网络的技术来解决自动驾驶领域中的多个视觉感知任务,通过利用先前帧的特征表示实现深度学习的联合分割、深度和运动预测,并采用几何平均数作为任务损失的替代方案,可以更好地处理不同任务收敛速度之间的差异,实验结果表明,这种方法优于现有的多任务学习解决方案。
Apr, 2019
本论文将多任务学习作为多目标优化来解决,并提出了一种基于梯度下降优化算法的上限边界,证明了在现实情况下优化这个上限边界将得到帕累托最优解,在多任务深度学习问题上应用我们的方法表现出比最近的多任务学习公式或每项任务训练的模型更高的性能。
Oct, 2018
本文提出了一种基于师生模型的双不确定加权半监督分割方法,其中老师模型通过对标签和未标签数据的不一致预测惩罚来指导学生模型,我们使用贝叶斯深度学习训练教师模型,这是首次将分割不确定性延伸到特征不确定性,我们设计了可学习的不确定性一致性损失以在预测和不确定性之间以交互方式进行无监督学习,并通过定性和定量分析验证了所提出的特征不确定性和损失函数的有效性,实验结果表明,我们的方法在两个公共医学数据集上优于现有的基于不确定性的半监督方法。
Oct, 2020
本文评估了九种任务加权策略,提出了一种结合进化元学习和基于任务的选择反向传播的新方法,用于计算任务权重以实现可靠网络训练,改进了现有方法的性能。
Jan, 2020
本文提出了一种多目标优化的多任务学习方法,通过迭代传递模型参数在优化过程中解决存在冲突的多个任务,并在图像分类、场景理解和多目标回归问题中进行了实验验证,结果显示该方法显著提升了发现满足 Pareto 优化的模型集合的状态,尤其在大规模图像数据集上的实验中,比现有技术取得了近两倍的超体积收敛速度。
Mar, 2024