OT-Flow 样本生成的收敛性分析
该研究探讨深度神经网络训练中的梯度流收敛问题,并提出了一种基于条件最优传输距离的训练模型,通过梯度流方程的良定性和多项式 - Lojasiewicz 分析证明了在适当的初始化条件下,梯度流可以收敛于全局极小值。
Mar, 2024
本文介绍了一种使用最优输送损失的可行计算方法,通过熵平滑和自动微分来减少计算负担、提高稳定性和平滑性,获得鲁棒和可微分的最优输送损失的逼近,从而训练大规模生成模型并补充标准深度网络生成模型的计算机架构。
Jun, 2017
使用概率流常微分方程进行基于得分的生成建模已经在各种应用领域取得了显著的成功。本文首次提供了关于概率流常微分方程采样器的非渐近收敛性分析,假定得分估计准确,并在 2-Wasserstein 距离下建立了一系列 ODE 采样器的迭代复杂性结果。
Jan, 2024
基于分数的生成模型中,我们从理论和数值的角度研究了基于概率流 ODE 的确定性采样器的收敛性质,并证明了目标和生成数据分布之间的总变差可以在连续时间层面上通过 d√δ(其中 d 表示数据维度,δ 表示 L2 - 评分匹配误差)被上界限制,并针对使用 p 阶 Runge-Kutta 积分器进行具体实现的情况,建立了离散层面上的误差界限为 O (d (√δ + (dh)^p))。最后,我们进行了高达 128 个维度的问题的数值研究,验证了我们的理论,结果表明更好的评分匹配误差和维度依赖性。
Apr, 2024
本文证明了熵正则化最优输运问题的 Gamma 收敛性,并证明了隐式步骤按熵正则化距离时收敛于原始梯度流,证明了压缩后的最优输运计划收敛于最优输运计划,这表明了压缩后的熵正则化最优输运计划在熵消失时收敛于最优输运计划。
Dec, 2015
利用粒子混合模型及连续时间梯度下降对机器学习与信号处理中的测量值进行凸函数最小化,特别是在使用单个隐藏层的神经网络进行训练时,可通过 Wasserstein 梯度流达到全局最小值。
May, 2018
本文通过基于正则化最优传输的平滑 Wasserstein GAN 公式实现梯度信息的获取,从而实现对该目标函数的一阶优化,为一类生成对抗网络优化算法建立了理论收敛保证,且仅需要解决鉴别器问题以近似最优。该算法计算效率高,应用于 MNIST 数字以及 CIFAR-10 图像数据集相比其他同等架构和计算能力的算法生成的图像效果显著。
Feb, 2018
我们研究了基于 ODE 的生成模型(特别是流匹配),通过使用预训练的自编码网络将高维原始输入映射到低维潜在空间,再通过训练一个转换网络来预测从标准正态分布到目标潜在分布的变换速度场。我们的误差分析证明了这种方法的有效性,显示出通过估计 ODE 流生成的样本分布在温斯坦 - 2 距离下收敛到目标分布,在温和和实际的假设下。此外,我们还展示了具有李普希茨连续性的转换网络可以有效逼近任意平滑函数,这可能具有独立的兴趣。
Apr, 2024