神经流函数
提出了可流式传输的神经场模型,通过可执行的各种宽度的子网络,可以重构不同品质和部分信号,例如,较小的子网络产生平缓和低频信号,而较大的子网络可以表示细节,实验结果表明,该方法有效地应用于 2D 图像,视频和 3D 信号。同时,该方法还利用参数共享来提高训练稳定性。
Jul, 2022
介绍了一种用于在三维嵌入式曲面上学习切向量场的新型神经网络体系结构,通过引入可训练的向量热扩散模块在曲面上空间传播向量值特征数据,该架构具有刚性运动不变性、等距变形不变性,以及局部切向基的选择不变性,对曲面的离散化也具有鲁棒性。在三角网格上评估了该 Vector Heat 网络,并从实证上验证了其不变性质,同时展示了该方法在四边形网格生成方面的有用工业应用。
Jun, 2024
我们提出了神经 Sinkhorn 梯度流(NSGF)模型,该模型使用神经网络来逼近底层 Wasserstein 梯度流的一部分,通过 Sinkhorn 分歧到目标分布的时间变化速度场的参数化,利用速度场匹配训练方案进行样本估计。理论分析表明,随着样本数量无限增加,经验估计的均场近似收敛于真实的底层速度场。为进一步提高模型在高维任务上的效率,我们设计了一个两阶段的 NSGF++ 模型,首先使用 Sinkhorn 流快速接近图像流形(≤5 次 NFE),然后沿着简单的直线流细化样本。通过合成和真实世界基准数据集的数值实验证明了我们的理论结果并证明了所提出方法的有效性。
Jan, 2024
研究了线性神经网络训练中渐进流(即用无穷小步长的梯度下降法)的隐含偏差;提出了神经网络的张量形式,包括全连接、对角线和卷积网络等特例,并研究了称为线性张量网络的公式的线性版本。通过这个公式,我们可以将网络的收敛方向表征为由网络定义的张量的奇异向量。
Oct, 2020
本文提出了一种用于改进神经隐函数 3D 表示中采样和正则化的混合模型,利用 iso-points 作为神经隐函数的显式表示,使训练时能够实时计算并更新采样点,以捕获重要的几何特征和优化几何约束,提高重建质量和拓扑准确性。实验结果表明,相比现有方法,该方法可以更快地收敛、更好地泛化、更准确地恢复细节和拓扑结构。
Dec, 2020
本文介绍一种基于向量场的新型表面卷积操作器,在局部坐标参考点定义单一坐标参数化的代替方法下,组合相邻特征,结合了本质空间卷积和平行传输的散射操作,为卷积提供了新的定义方法,适用于表面上的 CNN,通过由残差场卷积模块构成的简单网络在形状分类、分割、对应和稀疏匹配等基本几何处理任务中实现了最先进的结果。
Apr, 2021
本文提出了一种新的 3D 表示方法,神经向量场(NVF),该方法充分利用了显式学习过程和隐式函数表示的强大表示能力,通过从查询向表面预测位移并使用矢量场对形状进行建模来打破分辨率和拓扑中的障碍,进而提出了一个基于矢量量化的形状代码本学习方法,最终实现了在不同的评价场景下优于最先进方法的结果,包括完整及非完整形状的构建、类别特定和类别不可知构建、类别未知构建和跨域构建。
Mar, 2023
通过神经网络梯度下降在 Riemannian 度量空间中建立流的理论,以近似 Calabi-Yau 度量为动机,并且通过理解神经网络空间中的流进而实现。通过推导相应的度量流方程,我们发现其受到度量神经切向核的控制,这是一个在时间中演化的复杂的非局部对象。然而,许多体系结构可以进行无限宽度的极限,其中核固定且动力学简化。额外的假设可以引入流动的局部性,从而实现 Perelman 的 Ricci 流形式,该流形式曾被用于解决 3D Poincaré 猜想。我们将这些思想应用于数值 Calabi-Yau 度量,包括对特征学习重要性的讨论。
Oct, 2023
介绍了一种基于无限宽的 ReLU 神经网络随机特征内核的 3D 表面重建技术,它能够超越最近的神经网络技术和 Poisson 表面重建方法,提供了一种简单且易于分析的内核公式,并证明其为更高维度的三次样条插值的推广。
Jun, 2020