Apr, 2017

将水平集重新构造为深度循环神经网络方法以进行语义分割

TL;DR本论文提出了一种新的轮廓演化定义,称为Recurrent Level Set (RLS),通过Gated Recurrent Unit在变分LS函数的能量最小化下进行,以弥补经典变分LS方法在处理多实例对象和迭代次数影响等方面的局限性,并将其扩展为Contextual RLS (CRLS)以解决野外语义分割问题分。实验结果表明,与经典的变分LS方法相比,我们提出的RLS方法能提高计算时间和分割精度,而完全端到端系统CRLS与当前最先进的语义分割方法的性能相当。