BriefGPT.xyz
Ask
alpha
关键词
persistent training
搜索结果 - 2
通过最小化 Wasserstein-2 损失进行生成建模
通过最小化二阶 Wasserstein 损失(即 $W_2$ 损失),该论文处理无监督学习问题。论文证明了方式一通过分布相关的常微分方程(ODE)动力学的超限势潜力近似估计当前分布与真实数据分布之间的关系。主要结果显示 ODE 的时变边界概
→
PDF
17 days ago
持续训练的扩散辅助能量模型
本文介绍了通过引入扩散数据和使用增强采样算法,通过持续对比散度学习一种联合的能量基模型,称为扩散辅助 - EBM,来实现复杂的,多模态分布的准确采样和密度估计,并进行了 2D 和图像实验,证明了持续训练的 EBMs 可以同时实现长时间稳定性
→
PDF
a year ago
Prev
Next