CVPRApr, 2020

LSM: 低层次视觉学习子空间最小化

TL;DR本文从新的角度研究低层视觉任务中的能量最小化问题,以可学习的子空间约束取代启发式正则化项,并保留数据项以利用任务的第一原理的领域知识。通过 LSM 框架,可以统一多个低层视觉任务的网络结构和参数,使用完全共享的参数同时训练单个网络,甚至将训练好的网络推广到未知任务上,只要能够制定其数据项。本文在交互式图像分割、视频分割、立体匹配和光流等四个低层任务上验证了 LSM 框架,并在各种数据集上验证了该网络。实验结果表明,所提出的 LSM 方法具有更小的模型大小、更快的训练收敛和实时推理以及优异的成果。