May, 2024

使用 Wasserstein - 邻近正规化的 $α$- 散度学习重尾分布

TL;DR我们提出了 Wasserstein proximals of $\alpha$-divergences 作为学习重尾分布的合适目标函数,首先给出了数据维度、$\alpha$ 和数据分布衰减率之间的足够关系以及某些情况下的必要关系,使得 Wasserstein- proximal-regularized divergence 是有限的,并且在某些尾部条件下提供了 Wasserstein-1 proximal divergences 的有限样本收敛速度,数值实验表明了学习重尾分布的稳定性,即使是没有第一或第二时刻的分布,也可以使用适当的生成模型(如 GANs 和与我们提出的 Wasserstein proximal-regularized $\alpha$-divergences 相关的基于流的模型)来学习目标分布,启发式地,$\alpha$-divergences 处理重尾,Wasserstein proximals 在分布之间提供非绝对连续性,并在深入尾部学习目标分布时控制流算法的速度。