控制神经水平集
该论文提出了一种基于神经网络的隐式表面的参数化方法,利用能量最小化问题和水平集理论,实现对隐式表面的形变和后处理操作,这种方法优于已有方法在表面平滑、均值曲率流等方面的表现。
Apr, 2022
本文提出了一种从原始数据(即点云)中直接计算高保真度隐式神经表示的新范式,它鼓励神经网络在输入点云上消失并具有单位范数梯度的简单损失函数具有几何正则化特性,利用神经网络表示任务的表面形状的零水平集,避免不良零损失解,实验表明该方法与之前的方法相比具有更高的细节和保真度。
Feb, 2020
研究使用 CNN 进行语义分割时由于输出分辨率较低而损失空间细节的问题,采用基于 level set 理论的新型 loss function:level set loss,将 level set 函数转化为类别概率图,通过加权求和与 cross-entropy loss 进行联合优化,提高了分割结果的空间细节。对比先前的方法取得更好的性能。
Oct, 2019
本篇论文提出了使用贝叶斯神经网络的新方法,从而解决高维度 Level Set Estimation 问题,并给出了两种问题的相应理论信息获取函数,进一步分析了我们拟议的获取函数的理论时间复杂度,并建议一种实际的方法来有效地调整网络超参数以实现高模型精度。我们在合成和真实数据集上进行了数字实验,证明我们的拟议方法比现有的最先进方法取得了更好的结果。
Dec, 2020
通过引入一种变分形状推理方法以及一种新的几何损失函数,我们提出了一种端到端的可训练模型,可以直接预测任意拓扑的隐式表面表示,并演示了该模型在 3D 表面预测任务中的准确性和灵活性。
Jan, 2019
本论文提出了一种新的轮廓演化定义,称为 Recurrent Level Set (RLS),通过 Gated Recurrent Unit 在变分 LS 函数的能量最小化下进行,以弥补经典变分 LS 方法在处理多实例对象和迭代次数影响等方面的局限性,并将其扩展为 Contextual RLS (CRLS) 以解决野外语义分割问题分。实验结果表明,与经典的变分 LS 方法相比,我们提出的 RLS 方法能提高计算时间和分割精度,而完全端到端系统 CRLS 与当前最先进的语义分割方法的性能相当。
Apr, 2017
本文研究深度神经网络优化问题中的高维非凸性质,通过对数据分布和模型进行分析得出深度线性网络与半修正网络拓扑结构差异明显、非线性问题基于数据分布平滑程度和模型过度参数化的相互影响,通过证明半修正单层网络的渐进连通性,以及通过分析水平面的几何特征来研究梯度下降的调节。实验结果显示,虽然吸引子很小,但这些水平面在所有的学习阶段都保持连通。
Nov, 2016
深度神经网络对于欺骗性攻击的敏感性,以及其在输入空间中输入扰动对于网络激活的影响程度的研究,包括等置信度级别集合的几何和范围,以及通过 使用局部梯度的正交分量来遍历这些集合的算法。
Oct, 2023
通过水平集和莫尔斯理论,研究了神经元在高维空间上的图像响应,发现这种拓扑特征可以预测不同脑区和卷积神经网络中的神经元响应模式,并推测高阶神经元可以被局部视为各向同性的径向基函数。
Dec, 2022